WO2015045233A1 - 情報処理システム - Google Patents
情報処理システム Download PDFInfo
- Publication number
- WO2015045233A1 WO2015045233A1 PCT/JP2014/003631 JP2014003631W WO2015045233A1 WO 2015045233 A1 WO2015045233 A1 WO 2015045233A1 JP 2014003631 W JP2014003631 W JP 2014003631W WO 2015045233 A1 WO2015045233 A1 WO 2015045233A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- frame
- object element
- feature amount
- unit
- frame image
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
- G06V20/47—Detecting features for summarising video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/30—Writer recognition; Reading and verifying signatures
- G06V40/37—Writer recognition; Reading and verifying signatures based only on signature signals such as velocity or pressure, e.g. dynamic signature recognition
- G06V40/382—Preprocessing; Feature extraction
Definitions
- an object of the present invention is to provide an information processing system that can solve the above-described problem that a high-precision search result for a search target in a moving image cannot be obtained.
- An information processing system for detecting and tracking an object in the moving image data, and detecting a plurality of object elements representing elements of a preset object that can be detected from the object;
- a feature amount extraction unit that extracts, for each object element, a feature amount of the object element from a frame image constituting the moving image data;
- a frame selection unit that selects, for each object element, the frame image that satisfies each frame selection criterion set in advance for each object element;
- predetermined storage is performed by associating frame specifying information for specifying the frame image selected by the frame selection unit with the feature amount of the object element extracted from the selected frame image.
- the program which is the other form of this invention is: A feature amount of the object element extracted for each object element from a frame image selected according to a frame selection criterion set in advance for each of a plurality of object elements representing the element of the object detected from the moving image data; A search unit that performs a search for each object element using the feature amount for each object element with reference to a storage unit that is stored in association with frame specifying information that specifies the selected frame image.
- the information processing system first detects and tracks an object shown in a video that is moving image data, and extracts and stores a feature amount of the object element that is an element of the object. Then, the information processing system performs a desired search using the stored feature amount of the object element.
- the present invention can be used as a system in which a camera is installed in a certain city and a person is searched for from an image captured by the camera.
- the information processing system described below is merely an example of the present invention, and the information processing system in the present invention may be used for other purposes.
- the video analysis unit 10 includes an object tracking / detection unit 11, an object feature amount extraction unit 12, an object feature amount aggregation unit 13, a video, and the like, which are constructed by incorporating a predetermined program into an installed arithmetic device.
- Another analysis setting unit 14 and a best frame selection unit 15 are provided.
- the object search unit 30 includes a search target best frame selection unit 31 and a feature amount search unit 32, which are constructed by incorporating a predetermined program in the equipped arithmetic device.
- the object feature amount storage unit 20 is formed in a storage device provided in a predetermined information processing apparatus.
- the video-based analysis setting unit 14 performs settings when detecting an object or the like or extracting feature values by an object tracking / detecting unit 11 or an object feature value extracting unit 12 described later according to video characteristics or external conditions. (Step S1 in FIG. 4). For example, appropriate parameters are set according to the brightness of the video that changes according to the time and weather. Further, the image-specific analysis setting unit 14 may change and set the frame selection criteria of the frame image by the best frame selection unit 15 described later according to the characteristics of the image and external conditions.
- the eye size and the clothing color reliability which are values used in the frame selection described above, are calculated when, for example, the feature amount of the face or clothing is extracted by the object feature amount extraction unit 12. Value.
- the degree of frontal orientation of the face and the degree of blurring of the face which are values used when selecting a frame, are values calculated by the object tracking / detecting unit 11 when a person or modal is detected.
- the best frame selection unit 15 may select a frame image by performing a special analysis process for frame selection, for example, by a method different from the method described above.
- the search client unit 40 specifies a modal to be searched from a predetermined frame image and inputs a search request. Specifically, the searcher visually searches for a frame image in which a person wearing “red clothes” appears in the video, and the search client unit 40 selects the frame image. Subsequently, the searcher uses the search client unit 40 to select the position R2 of the modal “clothes” in the frame image as indicated by the arrow in FIG. 5A (step S11 in FIG. 9). Then, the search client unit 40 notifies the search target best frame selection unit 31 of the frame ID of the selected frame image and the position information of the position R2, and makes a search request.
- the search target best frame selection unit 31 specifies the modal corresponding to the frame ID and the position information notified from the search client unit 40 based on the position information of each modal stored in the object feature amount storage unit 20. To do.
- the selected modal is specified as “clothes”.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Television Signal Processing For Recording (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
動画像データ内の物体を検出して追跡すると共に、当該物体から検出可能な予め設定された物体の要素を表す物体要素を複数検出する物体検出部と、
前記動画像データを構成するフレーム画像から、前記物体要素ごとに、当該物体要素の特徴量をそれぞれ抽出する特徴量抽出部と、
前記物体要素ごとに予め設定されたそれぞれのフレーム選択基準を満たす前記フレーム画像を、前記物体要素ごとに選択するフレーム選択部と、
前記物体要素ごとに、前記フレーム選択部にて選択された前記フレーム画像を特定するフレーム特定情報と、当該選択されたフレーム画像から抽出された前記物体要素の特徴量と、を関連付けて所定の記憶部に記憶する特徴量関連付け部と、
を備えた、
という構成をとる。
情報処理装置に、
動画像データ内の物体を検出して追跡すると共に、当該物体から検出可能な予め設定された物体の要素を表す物体要素を複数検出する物体検出部と、
前記動画像データを構成するフレーム画像から、前記物体要素ごとに、当該物体要素の特徴量をそれぞれ抽出する特徴量抽出部と、
前記物体要素ごとに予め設定されたそれぞれのフレーム選択基準を満たす前記フレーム画像を、前記物体要素ごとに選択するフレーム選択部と、
前記物体要素ごとに、前記フレーム選択部にて選択された前記フレーム画像を特定するフレーム特定情報と、当該選択されたフレーム画像から抽出された前記物体要素の特徴量と、を関連付けて所定の記憶部に記憶する特徴量関連付け部と、
を実現させる、
という構成をとる。
動画像データ内の物体を検出して追跡すると共に、当該物体から検出可能な予め設定された物体の要素を表す物体要素を複数検出し、
前記動画像データを構成するフレーム画像から、前記物体要素ごとに、当該物体要素の特徴量をそれぞれ抽出し、
前記特徴量の抽出に前後して、前記物体要素ごとに予め設定されたそれぞれのフレーム選択基準を満たす前記フレーム画像を、前記物体要素ごとに選択し、
前記物体要素ごとに、前記フレーム選択部にて選択された前記フレーム画像を特定するフレーム特定情報と、当該選択されたフレーム画像から抽出された前記物体要素の特徴量と、を関連付けて所定の記憶部に記憶する、
という構成をとる。
動画像データ内から検出された物体の要素を表す複数の物体要素のそれぞれに予め設定されたフレーム選択基準により選択されたフレーム画像から前記物体要素ごとに抽出された当該物体要素の特徴量と、前記選択されたフレーム画像を特定するフレーム特定情報と、が関連付けられて記憶された記憶部を参照し、前記物体要素ごとの前記特徴量を用いて当該物体要素ごとの検索を行う検索部を備えた、
という構成をとる。
動画像データ内から検出された物体の要素を表す複数の物体要素のそれぞれに予め設定されたフレーム選択基準により選択されたフレーム画像から前記物体要素ごとに抽出された当該物体要素の特徴量と、前記選択されたフレーム画像を特定するフレーム特定情報と、が関連付けられて記憶された記憶部を参照し、前記物体要素ごとの前記特徴量を用いて当該物体要素ごとの検索を行う検索部を、情報処理装置に実現させるためのプログラムである。
動画像データ内から検出された物体の要素を表す複数の物体要素のそれぞれに予め設定されたフレーム選択基準により選択されたフレーム画像から前記物体要素ごとに抽出された当該物体要素の特徴量と、前記選択されたフレーム画像を特定するフレーム特定情報と、が関連付けられて記憶された記憶部を参照し、前記物体要素ごとの前記特徴量を用いて当該物体要素ごとの検索を行う、
という構成をとる。
本発明の第1の実施形態を、図1乃至図9を参照して説明する。図1は、情報処理システムの構成を示すブロック図である。図2乃至図3は、映像解析処理の様子を示す図であり、図4は映像解析処理の動作を示すフローチャートである。図4乃至図8は、映像検索処理の様子を示す図であり、図9は映像検索処理の動作を示すフローチャートである。
上記実施形態の一部又は全部は、以下の付記のようにも記載されうる。以下、本発明における情報処理システム(図10、図11参照)、プログラム、情報処理方法の構成の概略を説明する。但し、本発明は、以下の構成に限定されない。
動画像データ内の物体を検出して追跡すると共に、当該物体から検出可能な予め設定された物体の要素を表す物体要素を複数検出する物体検出部101と、
前記動画像データを構成するフレーム画像から、前記物体要素ごとに、当該物体要素の特徴量をそれぞれ抽出する特徴量抽出部102と、
前記物体要素ごとに予め設定されたそれぞれのフレーム選択基準を満たす前記フレーム画像を、前記物体要素ごとに選択するフレーム選択部103と、
前記物体要素ごとに、前記フレーム選択部にて選択された前記フレーム画像を特定するフレーム特定情報と、当該選択されたフレーム画像から抽出された前記物体要素の特徴量と、を関連付けて所定の記憶部105に記憶する特徴量関連付け部104と、
を備えた情報処理システム100。
付記1に記載の情報処理システムであって、
前記フレーム選択部は、前記物体検出部による検出結果、及び、前記特徴量抽出部による抽出結果のうち、少なくとも一方を用いて、前記物体要素ごとに前記フレーム画像を選択する、
情報処理システム。
付記1又は2に記載の情報処理システムであって、
前記フレーム選択部は、前記動画像データの再生時間に沿って予め区切られた時間範囲ごとに、当該時間範囲内に属する前記フレーム画像から前記物体要素ごとに前記フレーム画像を選択する、
情報処理システム。
付記3に記載の情報処理システムであって、
前記フレーム選択部は、前記時間範囲ごとに、当該時間範囲内において少なくとも1つの前記フレーム画像を前記物体要素ごとに選択する、
情報処理システム。
付記1又は2に記載の情報処理システムであって、
前記フレーム選択部は、前記物体要素ごとに、所定の時間以上離れた前記フレーム画像を選択する、
情報処理システム。
付記1乃至5のいずれかに記載の情報処理システムであって、
前記所定の記憶部に記憶された前記物体要素ごとの前記特徴量を用いて、当該物体要素ごとの検索を行う検索部を備えた、
情報処理システム。
付記6に記載の情報処理システムであって、
前記検索部は、所定の条件にて前記フレーム画像が指定され、当該指定されたフレーム画像を特定する前記フレーム特定情報に前記物体要素ごとの前記特徴量が関連付けられて記憶されていない場合に、当該指定されたフレーム画像とは異なる他の前記フレーム画像を特定する前記フレーム特定情報に関連付けられている前記物体要素ごとの前記特徴量を用いて、当該物体要素ごとの検索を行う、
情報処理システム。
付記6又は7に記載の情報処理システムであって、
前記物体検出部は、動画像データ内から検出した前記物体ごとに当該物体を識別する物体識別情報を付与し、
前記特徴量関連付け部は、前記フレーム選択部にて選択された、及び、選択されていない前記フレーム画像を特定する前記フレーム特定情報に、前記物体検出部にて検出された物体に付与された前記物体識別情報を関連付けて所定の記憶部に記憶し、
前記検索部は、前記フレーム特定情報に関連付けられている前記物体識別情報に基づいて、所定の条件にて指定された前記フレーム画像と同一の前記物体が映る他の前記フレーム画像を特定する前記フレーム特定情報に関連付けられている前記物体要素ごとの前記特徴量を用いて、当該物体要素ごとの検索を行う、
情報処理システム。
付記6乃至8のいずれかに記載の情報処理システムであって、
前記物体検出部は、前記物体の前記物体要素の位置情報を当該物体要素ごとに検出し、
前記特徴量関連付け部は、前記フレーム選択部にて選択された、及び、選択されていない前記フレーム画像を特定する前記フレーム特定情報に、前記物体検出部にて検出された前記物体要素の位置情報を関連付けて所定の記憶部に記憶し、
前記検索部は、前記フレーム特定情報に関連付けられている前記物体要素の位置情報に基づいて、所定の条件にて指定された前記フレーム画像内のさらに指定された位置にある前記物体要素を特定し、その物体要素と同一の物体要素が映る他の前記フレーム画像を特定する前記フレーム特定情報に関連付けられている前記特徴量を用いて、当該物体要素の検索を行う、
情報処理システム。
付記7乃至9のいずれかに記載の情報処理システムであって、
前記検索部は、所定の条件にて指定された前記フレーム画像から、前記動画像データの再生時間に沿って前後して所定の範囲内に位置する前記他のフレーム画像を特定する前記フレーム特定情報に関連付けられている前記物体要素ごとの前記特徴量を用いて、当該物体要素ごとの検索を行う、
情報処理システム。
動画像データ内から検出された物体の要素を表す複数の物体要素のそれぞれに予め設定されたフレーム選択基準により選択されたフレーム画像から前記物体要素ごとに抽出された当該物体要素の特徴量と、前記選択されたフレーム画像を特定するフレーム特定情報と、が関連付けられて記憶された記憶部202を参照し、前記物体要素ごとの前記特徴量を用いて当該物体要素ごとの検索を行う検索部201を備えた、
情報処理システム200。
付記11に記載の情報処理システムであって、
前記検索部は、所定の条件にて前記フレーム画像が指定され、当該指定されたフレーム画像を特定する前記フレーム特定情報に前記物体要素ごとの前記特徴量が関連付けられて記憶されていない場合に、当該指定されたフレーム画像とは異なる他の前記フレーム画像を特定する前記フレーム特定情報に関連付けられている前記物体要素ごとの前記特徴量を用いて、当該物体要素ごとの検索を行う、
情報処理システム。
情報処理装置に、
動画像データ内の物体を検出して追跡すると共に、当該物体から検出可能な予め設定された物体の要素を表す物体要素を複数検出する物体検出部と、
前記動画像データを構成するフレーム画像から、前記物体要素ごとに、当該物体要素の特徴量をそれぞれ抽出する特徴量抽出部と、
前記物体要素ごとに予め設定されたそれぞれのフレーム選択基準を満たす前記フレーム画像を、前記物体要素ごとに選択するフレーム選択部と、
前記物体要素ごとに、前記フレーム選択部にて選択された前記フレーム画像を特定するフレーム特定情報と、当該選択されたフレーム画像から抽出された前記物体要素の特徴量と、を関連付けて所定の記憶部に記憶する特徴量関連付け部と、
を実現させるためのプログラム。
付記13に記載のプログラムであって、
前記情報処理装置に、さらに、
前記所定の記憶部に記憶された前記物体要素ごとの前記特徴量を用いて、当該物体要素ごとの検索を行う検索部、
を実現させるためのプログラム。
動画像データ内から検出された物体の要素を表す複数の物体要素のそれぞれに予め設定されたフレーム選択基準により選択されたフレーム画像から前記物体要素ごとに抽出された当該物体要素の特徴量と、前記選択されたフレーム画像を特定するフレーム特定情報と、が関連付けられて記憶された記憶部を参照し、前記物体要素ごとの前記特徴量を用いて当該物体要素ごとの検索を行う検索部を、情報処理装置に実現させるためのプログラム。
付記15に記載のプログラムであって、
前記検索部は、所定の条件にて前記フレーム画像が指定され、当該指定されたフレーム画像を特定する前記フレーム特定情報に前記物体要素ごとの前記特徴量が関連付けられて記憶されていない場合に、当該指定されたフレーム画像とは異なる他の前記フレーム画像を特定する前記フレーム特定情報に関連付けられている前記物体要素ごとの前記特徴量を用いて、当該物体要素ごとの検索を行う、
プログラム。
動画像データ内の物体を検出して追跡すると共に、当該物体から検出可能な予め設定された物体の要素を表す物体要素を複数検出し、
前記動画像データを構成するフレーム画像から、前記物体要素ごとに、当該物体要素の特徴量をそれぞれ抽出し、
前記特徴量の抽出に前後して、前記物体要素ごとに予め設定されたそれぞれのフレーム選択基準を満たす前記フレーム画像を、前記物体要素ごとに選択し、
前記物体要素ごとに、前記フレーム選択部にて選択された前記フレーム画像を特定するフレーム特定情報と、当該選択されたフレーム画像から抽出された前記物体要素の特徴量と、を関連付けて所定の記憶部に記憶する、
情報処理方法。
付記17に記載の情報処理方法であって、
前記所定の記憶部に記憶された前記物体要素ごとの前記特徴量を用いて、当該物体要素ごとの検索を行う、
情報処理方法。
動画像データ内から検出された物体の要素を表す複数の物体要素のそれぞれに予め設定されたフレーム選択基準により選択されたフレーム画像から前記物体要素ごとに抽出された当該物体要素の特徴量と、前記選択されたフレーム画像を特定するフレーム特定情報と、が関連付けられて記憶された記憶部を参照し、前記物体要素ごとの前記特徴量を用いて当該物体要素ごとの検索を行う、
情報処理方法。
付記19に記載の情報処理方法であって、
所定の条件にて前記フレーム画像が指定され、当該指定されたフレーム画像を特定する前記フレーム特定情報に前記物体要素ごとの前記特徴量が関連付けられて記憶されていない場合に、当該指定されたフレーム画像とは異なる他の前記フレーム画像を特定する前記フレーム特定情報に関連付けられている前記物体要素ごとの前記特徴量を用いて、当該物体要素ごとの検索を行う、
情報処理方法。
2 映像入力部
10 映像解析部
11 オブジェクト追跡・検出部
12 オブジェクト特徴量抽出部
13 オブジェクト特徴量集約部
14 映像別解析設定部
15 ベストフレーム選択部
20 オブジェクト特徴量記憶部
30 オブジェクト検索部
31 検索対象ベストフレーム選択部
32 特徴量検索部
40 検索クライアント部
100 情報処理システム
101 物体検出部
102 特徴量抽出部
103 フレーム選択部
104 特徴量関連付け部
105 記憶部
200 情報処理システム
201 検索部
202 記憶部
Claims (20)
- 動画像データ内の物体を検出して追跡すると共に、当該物体から検出可能な予め設定された物体の要素を表す物体要素を複数検出する物体検出部と、
前記動画像データを構成するフレーム画像から、前記物体要素ごとに、当該物体要素の特徴量をそれぞれ抽出する特徴量抽出部と、
前記物体要素ごとに予め設定されたそれぞれのフレーム選択基準を満たす前記フレーム画像を、前記物体要素ごとに選択するフレーム選択部と、
前記物体要素ごとに、前記フレーム選択部にて選択された前記フレーム画像を特定するフレーム特定情報と、当該選択されたフレーム画像から抽出された前記物体要素の特徴量と、を関連付けて所定の記憶部に記憶する特徴量関連付け部と、
を備えた情報処理システム。 - 請求項1に記載の情報処理システムであって、
前記フレーム選択部は、前記物体検出部による検出結果、及び、前記特徴量抽出部による抽出結果のうち、少なくとも一方を用いて、前記物体要素ごとに前記フレーム画像を選択する、
情報処理システム。 - 請求項1又は2に記載の情報処理システムであって、
前記フレーム選択部は、前記動画像データの再生時間に沿って予め区切られた時間範囲ごとに、当該時間範囲内に属する前記フレーム画像から前記物体要素ごとに前記フレーム画像を選択する、
情報処理システム。 - 請求項3に記載の情報処理システムであって、
前記フレーム選択部は、前記時間範囲ごとに、当該時間範囲内において少なくとも1つの前記フレーム画像を前記物体要素ごとに選択する、
情報処理システム。 - 請求項1又は2に記載の情報処理システムであって、
前記フレーム選択部は、前記物体要素ごとに、所定の時間以上離れた前記フレーム画像を選択する、
情報処理システム。 - 請求項1乃至5のいずれかに記載の情報処理システムであって、
前記所定の記憶部に記憶された前記物体要素ごとの前記特徴量を用いて、当該物体要素ごとの検索を行う検索部を備えた、
情報処理システム。 - 請求項6に記載の情報処理システムであって、
前記検索部は、所定の条件にて前記フレーム画像が指定され、当該指定されたフレーム画像を特定する前記フレーム特定情報に前記物体要素ごとの前記特徴量が関連付けられて記憶されていない場合に、当該指定されたフレーム画像とは異なる他の前記フレーム画像を特定する前記フレーム特定情報に関連付けられている前記物体要素ごとの前記特徴量を用いて、当該物体要素ごとの検索を行う、
情報処理システム。 - 請求項6又は7に記載の情報処理システムであって、
前記物体検出部は、動画像データ内から検出した前記物体ごとに当該物体を識別する物体識別情報を付与し、
前記特徴量関連付け部は、前記フレーム選択部にて選択された、及び、選択されていない前記フレーム画像を特定する前記フレーム特定情報に、前記物体検出部にて検出された物体に付与された前記物体識別情報を関連付けて所定の記憶部に記憶し、
前記検索部は、前記フレーム特定情報に関連付けられている前記物体識別情報に基づいて、所定の条件にて指定された前記フレーム画像と同一の前記物体が映る他の前記フレーム画像を特定する前記フレーム特定情報に関連付けられている前記物体要素ごとの前記特徴量を用いて、当該物体要素ごとの検索を行う、
情報処理システム。 - 請求項6乃至8のいずれかに記載の情報処理システムであって、
前記物体検出部は、前記物体の前記物体要素の位置情報を当該物体要素ごとに検出し、
前記特徴量関連付け部は、前記フレーム選択部にて選択された、及び、選択されていない前記フレーム画像を特定する前記フレーム特定情報に、前記物体検出部にて検出された前記物体要素の位置情報を関連付けて所定の記憶部に記憶し、
前記検索部は、前記フレーム特定情報に関連付けられている前記物体要素の位置情報に基づいて、所定の条件にて指定された前記フレーム画像内のさらに指定された位置にある前記物体要素を特定し、その物体要素と同一の物体要素が映る他の前記フレーム画像を特定する前記フレーム特定情報に関連付けられている前記特徴量を用いて、当該物体要素の検索を行う、
情報処理システム。 - 請求項7乃至9のいずれかに記載の情報処理システムであって、
前記検索部は、所定の条件にて指定された前記フレーム画像から、前記動画像データの再生時間に沿って前後して所定の範囲内に位置する前記他のフレーム画像を特定する前記フレーム特定情報に関連付けられている前記物体要素ごとの前記特徴量を用いて、当該物体要素ごとの検索を行う、
情報処理システム。 - 動画像データ内から検出された物体の要素を表す複数の物体要素のそれぞれに予め設定されたフレーム選択基準により選択されたフレーム画像から前記物体要素ごとに抽出された当該物体要素の特徴量と、前記選択されたフレーム画像を特定するフレーム特定情報と、が関連付けられて記憶された記憶部を参照し、前記物体要素ごとの前記特徴量を用いて当該物体要素ごとの検索を行う検索部を備えた、
情報処理システム。 - 請求項11に記載の情報処理システムであって、
前記検索部は、所定の条件にて前記フレーム画像が指定され、当該指定されたフレーム画像を特定する前記フレーム特定情報に前記物体要素ごとの前記特徴量が関連付けられて記憶されていない場合に、当該指定されたフレーム画像とは異なる他の前記フレーム画像を特定する前記フレーム特定情報に関連付けられている前記物体要素ごとの前記特徴量を用いて、当該物体要素ごとの検索を行う、
情報処理システム。 - 情報処理装置に、
動画像データ内の物体を検出して追跡すると共に、当該物体から検出可能な予め設定された物体の要素を表す物体要素を複数検出する物体検出部と、
前記動画像データを構成するフレーム画像から、前記物体要素ごとに、当該物体要素の特徴量をそれぞれ抽出する特徴量抽出部と、
前記物体要素ごとに予め設定されたそれぞれのフレーム選択基準を満たす前記フレーム画像を、前記物体要素ごとに選択するフレーム選択部と、
前記物体要素ごとに、前記フレーム選択部にて選択された前記フレーム画像を特定するフレーム特定情報と、当該選択されたフレーム画像から抽出された前記物体要素の特徴量と、を関連付けて所定の記憶部に記憶する特徴量関連付け部と、
を実現させるためのプログラム。 - 請求項13に記載のプログラムであって、
前記情報処理装置に、さらに、
前記所定の記憶部に記憶された前記物体要素ごとの前記特徴量を用いて、当該物体要素ごとの検索を行う検索部、
を実現させるためのプログラム。 - 動画像データ内から検出された物体の要素を表す複数の物体要素のそれぞれに予め設定されたフレーム選択基準により選択されたフレーム画像から前記物体要素ごとに抽出された当該物体要素の特徴量と、前記選択されたフレーム画像を特定するフレーム特定情報と、が関連付けられて記憶された記憶部を参照し、前記物体要素ごとの前記特徴量を用いて当該物体要素ごとの検索を行う検索部を、情報処理装置に実現させるためのプログラム。
- 請求項15に記載のプログラムであって、
前記検索部は、所定の条件にて前記フレーム画像が指定され、当該指定されたフレーム画像を特定する前記フレーム特定情報に前記物体要素ごとの前記特徴量が関連付けられて記憶されていない場合に、当該指定されたフレーム画像とは異なる他の前記フレーム画像を特定する前記フレーム特定情報に関連付けられている前記物体要素ごとの前記特徴量を用いて、当該物体要素ごとの検索を行う、
プログラム。 - 動画像データ内の物体を検出して追跡すると共に、当該物体から検出可能な予め設定された物体の要素を表す物体要素を複数検出し、
前記動画像データを構成するフレーム画像から、前記物体要素ごとに、当該物体要素の特徴量をそれぞれ抽出し、
前記特徴量の抽出に前後して、前記物体要素ごとに予め設定されたそれぞれのフレーム選択基準を満たす前記フレーム画像を、前記物体要素ごとに選択し、
前記物体要素ごとに、前記フレーム選択部にて選択された前記フレーム画像を特定するフレーム特定情報と、当該選択されたフレーム画像から抽出された前記物体要素の特徴量と、を関連付けて所定の記憶部に記憶する、
情報処理方法。 - 請求項17に記載の情報処理方法であって、
前記所定の記憶部に記憶された前記物体要素ごとの前記特徴量を用いて、当該物体要素ごとの検索を行う、
情報処理方法。 - 動画像データ内から検出された物体の要素を表す複数の物体要素のそれぞれに予め設定されたフレーム選択基準により選択されたフレーム画像から前記物体要素ごとに抽出された当該物体要素の特徴量と、前記選択されたフレーム画像を特定するフレーム特定情報と、が関連付けられて記憶された記憶部を参照し、前記物体要素ごとの前記特徴量を用いて当該物体要素ごとの検索を行う、
情報処理方法。 - 請求項19に記載の情報処理方法であって、
所定の条件にて前記フレーム画像が指定され、当該指定されたフレーム画像を特定する前記フレーム特定情報に前記物体要素ごとの前記特徴量が関連付けられて記憶されていない場合に、当該指定されたフレーム画像とは異なる他の前記フレーム画像を特定する前記フレーム特定情報に関連付けられている前記物体要素ごとの前記特徴量を用いて、当該物体要素ごとの検索を行う、
情報処理方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/023,807 US10037467B2 (en) | 2013-09-26 | 2014-07-09 | Information processing system |
JP2015538848A JP6369470B2 (ja) | 2013-09-26 | 2014-07-09 | 情報処理システム |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013200065 | 2013-09-26 | ||
JP2013-200065 | 2013-09-26 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2015045233A1 true WO2015045233A1 (ja) | 2015-04-02 |
Family
ID=52742415
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2014/003631 WO2015045233A1 (ja) | 2013-09-26 | 2014-07-09 | 情報処理システム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10037467B2 (ja) |
JP (1) | JP6369470B2 (ja) |
WO (1) | WO2015045233A1 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160232234A1 (en) * | 2015-02-10 | 2016-08-11 | Hanwha Techwin Co., Ltd. | System and method for browsing summary image |
EP3104304A1 (en) * | 2015-06-10 | 2016-12-14 | Samsung Electronics Co., Ltd. | Electronic apparatus and method of extracting still images |
JP2020013290A (ja) * | 2018-07-18 | 2020-01-23 | 株式会社日立製作所 | 映像解析装置、人物検索システムおよび人物検索方法 |
WO2022059048A1 (ja) * | 2020-09-15 | 2022-03-24 | 三菱電機株式会社 | 目標識別装置、目標識別方法およびプログラム |
JP2022184762A (ja) * | 2021-05-31 | 2022-12-13 | グラスパー テクノロジーズ エーピーエス | 入出場マッチングシステムの概念 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6101817B2 (ja) * | 2013-11-01 | 2017-03-22 | Eizo株式会社 | 画像高画質化装置、画像表示装置、画像高画質化方法及びコンピュータプログラム |
JP6150899B2 (ja) * | 2013-11-01 | 2017-06-21 | Eizo株式会社 | 画像高画質化装置、画像表示装置、画像高画質化方法及びコンピュータプログラム |
CN107679529B (zh) * | 2016-08-01 | 2019-12-24 | 杭州海康威视数字技术股份有限公司 | 一种物流包裹图片处理方法、装置及系统 |
JP6725381B2 (ja) * | 2016-09-20 | 2020-07-15 | 株式会社東芝 | 画像照合装置および画像照合方法 |
US11250243B2 (en) * | 2019-03-26 | 2022-02-15 | Nec Corporation | Person search system based on multiple deep learning models |
WO2021251615A1 (ko) | 2020-06-10 | 2021-12-16 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 제어 방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009123095A (ja) * | 2007-11-16 | 2009-06-04 | Oki Electric Ind Co Ltd | 映像解析装置及び映像解析方法 |
JP2012123460A (ja) * | 2010-12-06 | 2012-06-28 | Toshiba Corp | 映像検索装置、及び映像検索方法 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2953712B2 (ja) * | 1989-09-27 | 1999-09-27 | 株式会社東芝 | 移動物体検知装置 |
US5689575A (en) * | 1993-11-22 | 1997-11-18 | Hitachi, Ltd. | Method and apparatus for processing images of facial expressions |
US6173068B1 (en) * | 1996-07-29 | 2001-01-09 | Mikos, Ltd. | Method and apparatus for recognizing and classifying individuals based on minutiae |
US5864630A (en) * | 1996-11-20 | 1999-01-26 | At&T Corp | Multi-modal method for locating objects in images |
US6263088B1 (en) * | 1997-06-19 | 2001-07-17 | Ncr Corporation | System and method for tracking movement of objects in a scene |
US6185314B1 (en) * | 1997-06-19 | 2001-02-06 | Ncr Corporation | System and method for matching image information to object model information |
GB2341231A (en) * | 1998-09-05 | 2000-03-08 | Sharp Kk | Face detection in an image |
US6795567B1 (en) * | 1999-09-16 | 2004-09-21 | Hewlett-Packard Development Company, L.P. | Method for efficiently tracking object models in video sequences via dynamic ordering of features |
KR100455294B1 (ko) * | 2002-12-06 | 2004-11-06 | 삼성전자주식회사 | 감시 시스템에서의 사용자 검출 방법, 움직임 검출 방법및 사용자 검출 장치 |
US7194110B2 (en) * | 2002-12-18 | 2007-03-20 | Intel Corporation | Method and apparatus for tracking features in a video sequence |
US7440593B1 (en) * | 2003-06-26 | 2008-10-21 | Fotonation Vision Limited | Method of improving orientation and color balance of digital images using face detection information |
US7844076B2 (en) * | 2003-06-26 | 2010-11-30 | Fotonation Vision Limited | Digital image processing using face detection and skin tone information |
WO2006025185A1 (ja) * | 2004-08-31 | 2006-03-09 | Matsushita Electric Industrial Co., Ltd. | 監視記録装置およびその方法 |
US20060067562A1 (en) * | 2004-09-30 | 2006-03-30 | The Regents Of The University Of California | Detection of moving objects in a video |
ITRM20050192A1 (it) * | 2005-04-20 | 2006-10-21 | Consiglio Nazionale Ricerche | Sistema per la rilevazione e la classificazione di eventi durante azioni in movimento. |
US8265392B2 (en) * | 2006-02-07 | 2012-09-11 | Qualcomm Incorporated | Inter-mode region-of-interest video object segmentation |
US7551754B2 (en) * | 2006-02-24 | 2009-06-23 | Fotonation Vision Limited | Method and apparatus for selective rejection of digital images |
US8194938B2 (en) * | 2009-06-02 | 2012-06-05 | George Mason Intellectual Properties, Inc. | Face authentication using recognition-by-parts, boosting, and transduction |
-
2014
- 2014-07-09 US US15/023,807 patent/US10037467B2/en active Active
- 2014-07-09 JP JP2015538848A patent/JP6369470B2/ja active Active
- 2014-07-09 WO PCT/JP2014/003631 patent/WO2015045233A1/ja active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009123095A (ja) * | 2007-11-16 | 2009-06-04 | Oki Electric Ind Co Ltd | 映像解析装置及び映像解析方法 |
JP2012123460A (ja) * | 2010-12-06 | 2012-06-28 | Toshiba Corp | 映像検索装置、及び映像検索方法 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160232234A1 (en) * | 2015-02-10 | 2016-08-11 | Hanwha Techwin Co., Ltd. | System and method for browsing summary image |
US10073910B2 (en) * | 2015-02-10 | 2018-09-11 | Hanwha Techwin Co., Ltd. | System and method for browsing summary image |
EP3104304A1 (en) * | 2015-06-10 | 2016-12-14 | Samsung Electronics Co., Ltd. | Electronic apparatus and method of extracting still images |
US10511765B2 (en) | 2015-06-10 | 2019-12-17 | Samsung Electronics Co., Ltd | Electronic apparatus and method of extracting still images |
CN112005272A (zh) * | 2018-07-18 | 2020-11-27 | 株式会社日立制作所 | 影像分析装置、人物检索系统和人物检索方法 |
WO2020017190A1 (ja) * | 2018-07-18 | 2020-01-23 | 株式会社日立製作所 | 映像解析装置、人物検索システムおよび人物検索方法 |
JP2020013290A (ja) * | 2018-07-18 | 2020-01-23 | 株式会社日立製作所 | 映像解析装置、人物検索システムおよび人物検索方法 |
JP7039409B2 (ja) | 2018-07-18 | 2022-03-22 | 株式会社日立製作所 | 映像解析装置、人物検索システムおよび人物検索方法 |
US11367219B2 (en) | 2018-07-18 | 2022-06-21 | Hitachi, Ltd. | Video analysis apparatus, person retrieval system, and person retrieval method |
WO2022059048A1 (ja) * | 2020-09-15 | 2022-03-24 | 三菱電機株式会社 | 目標識別装置、目標識別方法およびプログラム |
JPWO2022059048A1 (ja) * | 2020-09-15 | 2022-03-24 | ||
JP7221456B2 (ja) | 2020-09-15 | 2023-02-13 | 三菱電機株式会社 | 目標識別装置、目標識別方法およびプログラム |
JP2022184762A (ja) * | 2021-05-31 | 2022-12-13 | グラスパー テクノロジーズ エーピーエス | 入出場マッチングシステムの概念 |
JP7328401B2 (ja) | 2021-05-31 | 2023-08-16 | グラスパー テクノロジーズ エーピーエス | 入出場マッチングシステムの概念 |
Also Published As
Publication number | Publication date |
---|---|
JP6369470B2 (ja) | 2018-08-08 |
US20160239712A1 (en) | 2016-08-18 |
JPWO2015045233A1 (ja) | 2017-03-09 |
US10037467B2 (en) | 2018-07-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6369470B2 (ja) | 情報処理システム | |
De Geest et al. | Online action detection | |
JP5649425B2 (ja) | 映像検索装置 | |
US9626551B2 (en) | Collation apparatus and method for the same, and image searching apparatus and method for the same | |
Vaquero et al. | Attribute-based people search in surveillance environments | |
KR101390591B1 (ko) | 얼굴 화상 검색 시스템 및 얼굴 화상 검색 방법 | |
JP6013241B2 (ja) | 人物認識装置、及び方法 | |
JP4945477B2 (ja) | 監視システム、人物検索方法 | |
JP5740210B2 (ja) | 顔画像検索システム、及び顔画像検索方法 | |
KR101781358B1 (ko) | 디지털 영상 내의 얼굴 인식을 통한 개인 식별 시스템 및 방법 | |
US10074029B2 (en) | Image processing system, image processing method, and storage medium for correcting color | |
JP6529314B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP6548998B2 (ja) | 人物検索システムおよび人物検索方法 | |
JP2013065119A (ja) | 顔認証装置及び顔認証方法 | |
JP5787686B2 (ja) | 顔認識装置、及び顔認識方法 | |
CN110569918B (zh) | 一种样本分类的方法以及相关装置 | |
JP2014016968A (ja) | 人物検索装置及びデータ収集装置 | |
JP5971712B2 (ja) | 監視装置及び方法 | |
Shanmugavadivu et al. | Rapid face detection and annotation with loosely face geometry | |
US9286707B1 (en) | Removing transient objects to synthesize an unobstructed image | |
JP7438690B2 (ja) | 情報処理装置、画像認識方法及び学習モデル生成方法 | |
KR102213865B1 (ko) | 주시 영역 기반 객체 식별 장치 및 방법, 컴퓨터 프로그램이 기록된 기록매체 | |
Vaquero et al. | Attribute-based people search | |
Cazzato et al. | Video indexing using face appearance and shot transition detection | |
Chandran et al. | A PTZ camera based people-occupancy estimation system (PCBPOES) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 14849753 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2015538848 Country of ref document: JP Kind code of ref document: A |
|
WWE | Wipo information: entry into national phase |
Ref document number: 15023807 Country of ref document: US |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 14849753 Country of ref document: EP Kind code of ref document: A1 |