WO2015178234A1 - 画像検索システム - Google Patents
画像検索システム Download PDFInfo
- Publication number
- WO2015178234A1 WO2015178234A1 PCT/JP2015/063450 JP2015063450W WO2015178234A1 WO 2015178234 A1 WO2015178234 A1 WO 2015178234A1 JP 2015063450 W JP2015063450 W JP 2015063450W WO 2015178234 A1 WO2015178234 A1 WO 2015178234A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- search
- face
- image search
- monitoring terminal
- Prior art date
Links
- 238000012544 monitoring process Methods 0.000 claims abstract description 68
- 238000003384 imaging method Methods 0.000 claims abstract description 36
- 239000000284 extract Substances 0.000 claims abstract description 4
- 230000001815 facial effect Effects 0.000 abstract description 13
- 238000001514 detection method Methods 0.000 description 25
- 230000006870 function Effects 0.000 description 18
- 238000000034 method Methods 0.000 description 15
- 230000005540 biological transmission Effects 0.000 description 13
- 238000000605 extraction Methods 0.000 description 11
- 238000001454 recorded image Methods 0.000 description 7
- 230000004044 response Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000005021 gait Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005549 size reduction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
Definitions
- the present invention relates to an image search system, and more particularly to an image search system capable of efficiently searching for a search key face image used for a similar face image search from a moving image file.
- video surveillance systems have been installed in facilities visited by an unspecified number of people such as hotels, buildings, convenience stores, financial institutions, dams and roads for the purpose of crime prevention and accident prevention. This is because a person to be monitored is photographed by an imaging device such as a camera, and the video is transmitted to a monitoring center such as a management office or a security room, and the resident supervisor monitors it, and the purpose and necessity It is to be noted accordingly, corresponding, or recording video.
- video surveillance systems having a search function for more easily finding a desired image from recorded video (moving image file) are becoming widespread.
- the occurrence of specific events (events) in video can be automatically detected in real time using image recognition technology and recorded along with the video, and these events can be searched afterwards.
- a system with a simple search function is emerging.
- One of them is a person search function.
- the person search function is a function that records in real time the appearance of a person in a video as an object of automatic detection, and can search for a person appearance image from recorded images after the fact.
- the person search function is roughly divided into the following two types.
- the first is an appearance event search function.
- the appearance event search function is a function for simply searching for the presence or absence of a person (event) in the video.
- the search result in addition to the presence or absence of an event, if it is determined that there is an event, the number of events, the occurrence time of each event, the imaging device number that captured the event, the captured image (person appearance image), etc. are presented .
- This search query (Query) is often given as information for narrowing the search target range such as the event occurrence time and imaging device number.
- the information for narrowing down the search target range is referred to as “narrowing parameter”.
- the second is a similar person search function. While the above-mentioned appearance event search function is a search that does not specify a character, this is whether or not a specific person specified by the user has been taken by an imaging device at another time or at another point. This is a function for searching for recorded images. In the search result, in addition to the presence / absence of other images showing a specific person, the number and shooting time, imaging device number, captured image (person appearing image), similarity degree to be described later, and the like are returned if present. .
- the designation of the specific person is performed by the user designating one image (hereinafter referred to as a search key image) showing the person to be searched.
- the search key image is designated from a recorded image or an arbitrary image from an external device.
- the image feature quantity of the person in this search key image is extracted by image recognition technology, collated with the image feature quantity of the person in the recorded image, the similarity (similarity) is obtained, and the same person determination is performed. It is realized by doing.
- the similarity of the image feature amount is obtained for the persons of the two images to be compared, and when the result (similarity) is equal to or greater than a predetermined reference value, these persons are the same person. Is determined.
- the extraction and recording of the image feature amount of the person in the recorded image is performed in advance at another timing such as video recording. Even in this search query, it is often possible to give a refinement parameter.
- Patent Document 1 a search key image is designated in this way, selected from search result images, displayed in another display area, and used as the next search key image.
- An image search apparatus that improves the performance is disclosed.
- Patent Document 2 discloses a similar image search system that further enhances user convenience. In this patent document 2, the user gives keywords such as a person name and features to the result of similar image search.
- Two types of search methods are available for image search: similar image search that excludes images with keywords from search targets, and appearance event search that searches only images with keywords. is there. The user performs similar image search a plurality of times, and performs appearance event search after determining that a keyword has been assigned to a sufficiently large number of images.
- the monitor when searching for a similar face image, the monitor operates the monitoring terminal to read and save a predetermined moving image file recorded and stored in the image recording apparatus, It is necessary to search for a search key face image based on the similar face image search from the video file and set and register the face image.
- the supervisor checks the presence or absence of a person during playback of the video file. For example, if there is a part (frame) in which a suspicious person is shown, Stop playing the file, visually check the face of the person in the frame image, and determine whether the face is clearly visible. If a person's face is clearly shown, the person's face image is set / registered as a search key face image, and then a plurality of videos shot by a plurality of imaging devices based on the search key image. Similar face image search is performed for the file.
- the face of the person in the frame image that has been paused is facing backwards, sideways, or blurred and unclear, the face image is not suitable for similar face image search. Therefore, it is necessary to replay the video, pause, and check the face state again.
- the supervisor in order to search for a face image suitable as a search key face image used for the similar face image search, the supervisor needs to repeat a series of operations of reproducing the video file, temporarily stopping, and checking the face state a plurality of times. There was a problem that it took a lot of time and effort.
- the supervisor can search by the image search server performing the similar face image search due to the influence of the face angle, size, lighting, etc. It may be determined that the key face image cannot be used.
- the present invention has been made in view of such a conventional situation, and provides an image search system capable of efficiently searching for a search key face image used for a similar face image search from a moving image file. Objective.
- an image search system includes an imaging device, an image search server that records a moving image file input from the imaging device on a recording medium, and a monitoring terminal.
- the image search server extracts feature amounts of face images appearing in a plurality of image frames constituting the moving image file, evaluates the similarity of the face images, and designates a search key face image.
- An image search system for performing a similar face image search for a specified search key face image wherein the image search server is configured to include a plurality of images constituting a predetermined moving image file based on an instruction from the monitoring terminal.
- Face image search means for searching for a face image frame in which a face appears in the frame, and the monitoring terminal downloads the predetermined video file from the image search server
- an image search system for achieving the above object is the above-described image search system, wherein the monitoring terminal includes a selection unit that selects a position of the timeline display area, and the selection unit includes the selection unit.
- the monitoring terminal includes a selection unit that selects a position of the timeline display area
- the selection unit includes the selection unit.
- the image search system according to the present invention for achieving the above object is the above-described image search system, wherein the monitoring terminal uses the selection means as the search key face image for similar face image search. A frame is selected and the face image frame information is transmitted to the image search server, and the image search server performs a similar face image search based on the face image frame information transmitted from the monitoring terminal.
- an image search system capable of efficiently searching for a search key face image used for a similar face image search from a moving image file.
- FIG. 1 It is a figure which illustrates the system configuration
- Embodiment 1 an image search system according to Embodiment 1 of the present invention will be described with reference to the drawings.
- the same reference numerals are assigned to components having a common function, and the description is omitted to avoid duplication as much as possible.
- FIG. 1 illustrates a system configuration of an image search system according to the first embodiment of the present invention.
- the image search system of the present invention is configured such that an imaging apparatus 201, an image search server 102, and a monitoring terminal 103 are connected to a network 200 and can communicate with each other.
- the network 200 is a communication means for performing communication by mutually connecting devices such as a dedicated network for data communication, an intranet, the Internet, and a wireless LAN (Local Area Network).
- devices such as a dedicated network for data communication, an intranet, the Internet, and a wireless LAN (Local Area Network).
- the imaging device 201 performs a digital conversion process on an image captured by a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) element, and outputs the converted image data to the image search server 102 via the network 200.
- CCD charge coupled device
- CMOS complementary metal oxide semiconductor
- Devices such as network cameras and surveillance cameras.
- the image search server 102 is a device such as a network digital recorder that records image data input from the imaging device 201 via the network 200 on a recording medium such as an HDD.
- the server also has a person search function including the method of the present invention.
- the image search server 102 has an image transmission / reception unit 210, an image recording unit 211, a reproduction control unit 212, a person region detection unit 213, a person feature amount extraction unit 214, a face region detection unit 111, and a face feature amount extraction unit 112 as functional configurations.
- the image transmission / reception unit 210 is a processing unit that inputs and outputs images from the outside of the server, and receives input image data from the imaging apparatus 201 and transmits output image data to the monitoring terminal 103.
- the image recording unit 211 writes input image data to a recording medium and reads output image data from the recording medium. At the time of writing, in addition to the image data, an image ID (image identification information) serving as information for reading the image data is also recorded. Further, the image recording unit 211 automatically overwrites old image data with newly captured image data in order to prevent the storage capacity of the recording medium from becoming full.
- the playback control unit 212 controls video playback on the monitoring terminal 103.
- the person area detection unit 213 performs person detection using image recognition technology on the input image data, determines the presence of a person in the image, and, if a person exists, calculates the coordinates of that area.
- the person feature amount extraction unit 214 performs feature amount calculation on the region detected by the person region detection unit 213 using an image recognition technique.
- the human feature amount calculated here is, for example, the shape and direction of the outline of the person, the color of the skin, the gait (how to roll a leg such as which leg is moved at what timing), and the like.
- the face area detection unit 111 determines a face area using an image recognition technique for the area detected by the person area detection unit 213, and calculates the coordinates of the area.
- the face feature quantity extraction unit 112 performs feature quantity calculation on the area detected by the face area detection unit 111 using an image recognition technique.
- the facial feature amount calculated here is, for example, the shape and direction of the outline of a face, which is a representative part for specifying a person, the size, shape, and arrangement relationship of main components such as eyes, nose, and mouth. .
- the type and number of feature amounts used by the person feature amount extraction unit 214 and the face feature amount extraction unit 112 may be any.
- the person / face feature amount recording unit 215 writes and reads the feature amounts calculated by the person feature amount extraction unit 214 and the face feature amount extraction unit 112 to and from the recording medium.
- the image data recording medium in the image recording unit 211 and the person / face feature amount recording medium in the processing unit may be the same or different.
- the attribute information recording unit 216 writes and reads attribute information related to image data to and from a recording medium.
- the attribute information is, for example, an image shooting time, an imaging device number, or the like.
- the request receiving unit 217 receives a search request, a moving image file download request, a face image list acquisition request, and a search key face image registration request from the monitoring terminal 103.
- the face image search unit 218 performs face image search when the request received by the request reception unit 217 is a face image search request.
- the face image search unit 219 extracts a face image file that allows a similar face image search as a face based on the face feature amount registered in the person / face feature amount recording unit 215.
- the similar face image search unit 219 performs a similar face image search.
- the search result transmission unit 220 transmits the face image search result and the similar face image search result obtained from the face image search unit 218 and the similar face image search unit 219 to the monitoring terminal 103.
- the monitoring terminal 103 may be realized by a general PC (personal computer) having a network function, or may be a dedicated search terminal.
- the monitoring terminal 103 includes processing units such as a search request transmission unit 221, a search result reception unit 222, a search result display unit 223, a reproduction image display unit 224, and a screen operation detection unit 225 as functional configurations.
- the search request transmission unit 221 transmits a face image search request and a similar face image search request to the image search server 102.
- the search request data includes a desired search key face image or an image ID for specifying a desired search key face image as a search key for similar face image search.
- the search request data can include a plurality of search keys.
- the search result receiving unit 222 receives search results from the image search server 102.
- the data received as a search result includes a face detection time obtained by performing a face image search in the image search server 102 and a set of images obtained by performing a similar face image search.
- the individual images constituting the set are generated by performing image size reduction processing or the like from the images recorded in the image search server 102.
- each individual image is referred to as a “search result image”
- data transmitted and received as a search result is referred to as “search result data”.
- the search result display unit 223 displays a screen of the search result received by the search result receiving unit 222. An example of the displayed screen will be described later.
- the reproduction image display unit 224 performs continuous moving image display on the screen of the image data input from the image search server 102.
- the screen operation detection unit 225 detects and acquires operation content performed by the user.
- FIG. 2 illustrates a hardware configuration of the imaging apparatus 201 used in the image search system according to the first embodiment of the present invention.
- the hardware configuration of the imaging apparatus 201 is a form in which an imaging unit 241, a main storage unit 242, an encoding unit 243, and a network interface (I / F) 244 are coupled via a bus 240.
- the imaging unit 241 converts an optical signal imaged through the lens into digital data.
- the encoding unit 243 encodes the digital data output from the imaging unit 241 and converts it into image data such as JPEG (Joint Photographic Experts Group).
- the main storage unit 242 stores captured digital data and encoded image data.
- the network I / F 244 is an interface that is coupled to the bus 240 and transmits image data on the main storage unit 242 to the image search server 102 via the network 200.
- FIG. 3 illustrates a hardware configuration of the image search server 102 used in the image search system according to the first embodiment of the present invention.
- the hardware configuration of the image search server 102 is a form in which a CPU (Central Processing Unit) 251, a main storage unit 252, an auxiliary storage unit 253, and a network I / F 254 are coupled via a bus 250. .
- a CPU Central Processing Unit
- main storage unit 252 main storage unit
- auxiliary storage unit 253 main storage unit
- a network I / F 254 are coupled via a bus 250.
- the CPU 251 performs control of each part of the image search server 102 and execution of a program for realizing the function.
- the main storage unit 252 is realized by a semiconductor device such as a DRAM (Dynamic Random Access Memory), and is an intermediate memory for loading and storing image data for search and a program executed by the CPU 251.
- the auxiliary storage unit 253 is realized by an HDD, a flash memory, or the like, and has a larger capacity than the main storage unit 252 and stores image data and programs.
- the network I / F 254 is an interface for receiving image data from the imaging apparatus 201, receiving a search key from the monitoring terminal 103, and transmitting image data to the monitoring terminal 103 via the network 200.
- FIG. 4 illustrates a hardware configuration of the monitoring terminal 103 used in the image search system according to the first embodiment of the present invention.
- the hardware configuration of the monitoring terminal 103 includes a CPU 261, a main storage unit 262, an auxiliary storage unit 263, a display I / F 264, an input / output I / F 265, and a network I / F 266 that are coupled via a bus 260. It is a form.
- the display I / F 264 is connected to the display device 270, and the input / output I / F 265 is connected to input / output devices such as a keyboard 280 and a mouse 282.
- the CPU 261 performs control of each unit of the monitoring terminal 103 and execution of a program for realizing the function.
- the main storage unit 262 is realized by a semiconductor device such as a DRAM, and is an intermediate memory for loading and storing image data for display and a program executed by the CPU 261.
- the auxiliary storage unit 263 is realized by an HDD, a flash memory, or the like, and has a larger capacity than the main storage unit 262, and stores search keywords, image data, and programs.
- the display I / F 264 is an interface for connecting to the display device 270.
- the input / output I / F 265 is an interface for connecting to input / output devices such as a keyboard 280 and a mouse 282.
- the network I / F 266 is an interface for receiving image data from the image search server 102 and transmitting a search key to the image search server 102 via the network 200.
- the display device 270 is a device such as an LCD (Liquid Crystal Display), for example, and is a device that displays an image or a moving image on its display unit.
- the monitor operates the input / output device such as the keyboard 280 and the mouse 282 on the image displayed on the display unit of the display device 270, and operates the GUI (Graphical User Interface), for example, so that the monitor terminal 103 and the image search are performed. Operate the system.
- FIG. 5 is a diagram showing an example of the data structure of the moving image file table 300 used in the image search system of the present invention.
- FIG. 6 is a view showing an example of the data structure of the attribute information data table 310 used in the image search system of the present invention.
- the moving image file table 300 is a table for storing image data for each moving image file.
- an image ID 301 is assigned to each image data constituting each moving image file, and frame data 302 associated with the attached image ID is recorded.
- the frame data 302 is recorded, for example, as JPEG format data.
- the attribute information data table 310 is a table for storing attribute information data for an image obtained as a result of analyzing image data.
- a registration ID 311 is assigned for identification, and an image ID 312, a feature amount 313, a camera ID 314, and time information 315 are recorded in association with the assigned registration ID 311.
- a part of the image frame stored in the moving image file table 300 in association with the given registration ID 311 is designated by the image ID 312.
- the person / face feature amount of the image is stored in the feature amount 313, the ID of the imaging device 201 that has captured the image is stored in the camera ID 314, and the information about the imaging time of the frame is stored in the time information 315.
- the recording frame rate is 30 fps (Frames Per Second)
- the image analysis is performed on the part recognized as having a person, and the image is recorded at a maximum frame rate of about 3 fps. It is common to analyze by capturing.
- FIG. 7 is a diagram illustrating an example of a processing sequence between the monitoring terminal 103 and the image search server 102 in the image search system according to the first embodiment of the present invention.
- FIG. 8 shows the steps from setting and registering the search key face image used for the similar face image search from the moving image file until the similar face image search is performed in the image search system according to the first embodiment of the present invention. It is the figure which showed one Example of the search screen for demonstrating operation.
- step S101 the monitor operates the monitoring terminal 103 to specify the imaging device 201 that captures a desired monitoring area, and the time that the imaging device 201 has captured,
- the search server 102 is requested to download the desired moving image file (1).
- step S ⁇ b> 102 in the image search server 102, the image transmission / reception unit 210 reads out the moving image file (1) requested by the monitoring terminal 103 from the moving image file table 300 of the image recording unit 211 and transmits it to the monitoring terminal 103.
- step S103 when the moving image file (1) is transmitted from the image search server 102 in the monitoring terminal 103, the reproduced image display unit 224 displays the moving image file (1) on the operation screen shown in FIG. Automatic playback of is started.
- reference numeral 501 denotes a moving image playback area
- the received moving image file (1) is automatically played back in the moving image playback area 501, and the monitor can perform rewind, playback, pause, and fast forward.
- the moving image playback button group 503 having the buttons, it is started to check whether a suspicious person or the like appears on the screen.
- step S ⁇ b> 104 in the monitoring terminal 103, the search request transmission unit 221 transmits a face image search execution command related to the moving image file (1) to the image search server 102.
- step S ⁇ b> 105 in the image search server 102, the face image search unit 218 reads the moving image file (1) from the moving image file table 300 of the image recording unit 211 in response to the face image search execution command transmitted from the monitoring terminal 103. Then, the face image search process is started.
- step S ⁇ b> 106 in the monitoring terminal 103, the search request transmission unit 221 transmits a face image list acquisition command related to the moving image file (1) to the image search server 102.
- step S107 in response to the face image list acquisition command transmitted from the monitoring terminal 103, the image search server 102 uses the face image frame information (identification ID, time information, etc.) extracted so far by the face image search process.
- a list is transmitted to the monitoring terminal 103.
- step S108 in the monitoring terminal 103, based on the face image frame information list transmitted from the image search server 102, the reproduction image display unit 224 is hatched on the timeline display area 504 of the operation screen 500 shown in FIG. As shown, a face detection time line 504a is displayed.
- step S ⁇ b> 109 in the monitoring terminal 103, the search request transmission unit 221 periodically transmits a face image list acquisition command related to the moving image file (1) to the image search server 102.
- step S110 in response to the face image list acquisition command from the monitoring terminal 103, the image search server 102 lists the face image frame information (identification ID, time information, etc.) extracted so far by the face image search process.
- the reproduction image display unit 224 detects the face on the timeline display area 504 of the operation screen 500 shown in FIG. The time line 504a is displayed as a line. Note that the processing from step S109 to step S111 is repeated between the monitoring terminal 103 and the image search server 102 until the face image search in the moving image file (1) in the image search server 102 is completed.
- step S112 when the face image search in the moving image file (1) ends (step S112), a face image search end response is transmitted to the monitoring terminal 103 (step S113).
- step S ⁇ b> 114 in the monitoring terminal 103, the search request transmission unit 221 transmits a face image list acquisition command related to the moving image file (1) until the end of the face image search to the image search server 102.
- step S115 in the image search server 102, in response to the face image list acquisition command transmitted from the monitoring terminal 103, the face image frame information (identification ID, time) extracted up to the end of the face image search by the face image search process. Information) and the like are transmitted to the monitoring terminal 103.
- step S116 in the monitoring terminal 103, based on the face image frame information list transmitted from the image search server 102, the reproduction image display unit 224 detects the face on the timeline display area 504 of the operation screen 500 shown in FIG.
- the time line 504a is displayed as a line.
- the monitor operates the monitoring terminal 103 to reproduce the desired moving image file (1) and start monitoring a suspicious person, etc., and at the same time, the moving image file from the monitoring terminal 103 to the image search server 102
- the face image search process is performed by the image search server 102 in parallel with the monitoring behavior of the observer by visual observation. That is, since the processing speed of the face image search process in the image search server 102 is faster than the visual monitoring (face image search) of the supervisor by reproducing the moving image file (1) on the monitoring terminal 103, FIG.
- the moving image file (1) in the timeline display area 504 is started by the timeline display processing of the face detection time in steps S108, S111, and S116.
- the face detection time line 504a (shaded portion) gradually increases from the time (left end of the timeline display area 504) toward the end time of the moving image file (1) (right end of the timeline display area 504).
- a downward arrow in the area 504b indicates the progress of the face image search process in the image search server 102.
- step S117 the monitor selects the search key face image used for the similar face image search even during visual monitoring (face image search) by reproduction of the moving image file (1) on the operation screen 500 of the monitoring terminal 103.
- search for example, by moving the upward arrow in the area 505a in FIG. 8 to the position of the upward dotted arrow in the area 505b by a drag operation using the mouse 282, the time at the time indicated by the upward arrow is shown.
- the face image frame can be displayed in the moving image reproduction area 501 to efficiently check and select whether or not to use it as a search key face image.
- the operation screen 500 also includes a front face image detection position button 502a and a next face image detection position button 502b for selecting a search key face image used for similar face image search.
- the upward arrow moves to the position of the face image frame existing in front of the face image frame at the time currently indicated, and the face image frame is moved to the moving image reproduction area.
- the next face image detection position button 502b By pressing the next face image detection position button 502b, the upward arrow moves to the position of the face image frame that exists next to the face image frame at the current time indicated by The face image frame is displayed in the moving image playback area 501.
- the supervisor selects the similar face image search execution button at the lower right of the operation screen 500.
- face image frame information including a search key face image used for similar face image search is transmitted to the image search server 102 (step S118).
- the attribute information recording unit 216 sets the attribute information data table 310 based on the face image frame information including the search key face image used for the similar face image search transmitted from the monitoring terminal 103. ⁇ Register.
- step S120 the image search server 102 discloses a predetermined moving image file based on the search key face image used for the similar face image search transmitted from the monitoring terminal 103 as disclosed in Japanese Patent Application Laid-Open No. 2012-242878.
- the similar face image search is performed using the known technique.
- the image search system provides an image search system that can efficiently search for a search key face image used for similar face image search from a moving image file. can do.
- 102 Image search server, 103: Monitoring terminal, 111: Face area detection unit, 112: Face feature amount extraction unit, 200: Network, 201: Imaging device, 210: Image transmission / reception unit, 211: Image recording unit, 212: Playback Control unit, 213: Person area detection unit, 214: Person feature amount extraction unit, 215: Person / face feature amount recording unit, 216: Attribute information recording unit, 217: Request reception unit, 218: Face image search unit, 219: Similar face image search unit 220: Search result transmission unit 221: Search request transmission unit 222: Search result reception unit 223: Search result display unit 224: Reproduced image display unit 225: Screen operation detection unit 240: Bus, 241: Imaging unit, 242: Main storage unit, 243: Encoding unit, 244: Network interface, 250: Bus, 251: CPU, 252: Main storage unit, 253: Supplementary Storage unit, 254: Network interface, 260: Bus, 261: CPU, 262: Main storage unit, 263: Auxilia
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
動画ファイルの中から類似顔画像検索に使用する検索キー顔画像を効率良く捜すことが可能な画像検索システムを提供する。 撮像装置と、撮像装置から入力された動画ファイルを記録媒体に記録する画像検索サーバと、監視端末とから構成され、監視端末からの指示に基づき、画像検索サーバが、動画ファイルを構成する複数の画像フレームに映る顔画像の特徴量を抽出し、顔画像の類似度を評価し、検索キー顔画像を指定して、指定された当該検索キー顔画像に対して類似顔画像検索を行う画像検索システムであって、画像検索サーバは、監視端末からの指示に基づき、所定の動画ファイルを構成する複数の画像フレームの中から顔が映る顔画像フレームを検索する顔画像検索手段を備え、監視端末は、画像検索サーバから所定の動画ファイルをダウンロードして再生表示する動画再生表示エリアと、画像検索サーバの顔画像検索手段が検索した顔画像フレームの情報を基に、当該顔画像フレームの撮像時間をライン表示するタイムライン表示エリアと、を有する表示部を備えることを特徴とする。
Description
本発明は、画像検索システムに係り、特に、動画ファイルの中から類似顔画像検索に使用する検索キー顔画像を効率良く捜すことが可能な画像検索システムに関する。
従来から、ホテル、ビル、コンビニエンスストア、金融機関、ダムや道路といった不特定多数の人が訪れる施設には、犯罪抑止や事故防止等の目的で、映像監視システムが設置されている。これは、監視対象の人物等をカメラ等の撮像装置で撮影し、その映像を、管理事務所や警備室等の監視センタに伝送し、常駐する監視者がそれを監視し、目的や必要に応じて注意する、対応する、或いは映像を記録するものである。
映像監視システムにおいて、映像を記録するための記録媒体には、従来のビデオテープ媒体から、HDD(Hard Disk Drive)に代表されるランダムアクセス媒体が用いられる事例が増えている。さらに近年ではこのような記録媒体の大容量化が進んでいる。
記録媒体の大容量化は、記録できる映像の量を飛躍的に増大させ、より多地点や長時間の記録を可能にしつつある反面、記録映像を目視でチェックする負担の増加が問題点として顕在化しつつある。
記録媒体の大容量化は、記録できる映像の量を飛躍的に増大させ、より多地点や長時間の記録を可能にしつつある反面、記録映像を目視でチェックする負担の増加が問題点として顕在化しつつある。
このような背景から、記録した映像(動画ファイル)の中から所望の画像をより簡単に見つけ出すための検索機能を備える映像監視システムが普及しつつある。特に、近年では、映像中の特定の事象(イベント)の発生に対して、画像認識技術を用いてリアルタイムに自動検知して映像と共に記録し、事後にそれらのイベントを検索可能とする、より高度な検索機能を備えたシステムが登場しつつある。その中の代表的な一つに人物検索機能がある。
人物検索機能とは、映像中への人物の登場を自動検知の対象として、リアルタイムに記録し、事後に記録画像中から人物登場画像を探し出せる機能である。
人物検索機能とは、映像中への人物の登場を自動検知の対象として、リアルタイムに記録し、事後に記録画像中から人物登場画像を探し出せる機能である。
機能面から人物検索機能は、以下の2種類に大別される。
1つ目は、登場イベント検索機能である。登場イベント検索機能は、映像中への人物の登場(イベント)の有無を、単純に探し出す機能である。検索結果にはイベントの有無に加え、イベント有と判定された場合には、そのイベント数と各イベントの発生時刻やイベントを撮影した撮像装置番号、撮影した画像(人物登場画像)等を提示する。なお、この検索のクエリ(Query)には、イベント発生時刻や撮像装置番号等の検索対象範囲を絞込むための情報として与える場合が多い。以下では、この検索対象範囲を絞込むための情報を、「絞込みパラメータ」ということにする。
1つ目は、登場イベント検索機能である。登場イベント検索機能は、映像中への人物の登場(イベント)の有無を、単純に探し出す機能である。検索結果にはイベントの有無に加え、イベント有と判定された場合には、そのイベント数と各イベントの発生時刻やイベントを撮影した撮像装置番号、撮影した画像(人物登場画像)等を提示する。なお、この検索のクエリ(Query)には、イベント発生時刻や撮像装置番号等の検索対象範囲を絞込むための情報として与える場合が多い。以下では、この検索対象範囲を絞込むための情報を、「絞込みパラメータ」ということにする。
2つ目は、類似人物検索機能である。上述の登場イベント検索機能が、登場人物を特定しない検索であるのに対し、こちらはユーザが指定する特定人物が、他の時間、或いは他の地点の撮像装置で撮影されていないかどうかを、記録画像中から探し出す機能である。検索結果には、特定人物が映った他の画像の有無に加え、有の場合には、その数と撮影時刻、撮像装置番号、撮影した画像(人物登場画像)、後述の類似度等を返す。
特定人物の指定は、探したい人物が映った画像(以降、検索キー画像)をユーザが1ケ指定することで実施される。検索キー画像は、記録画像や外部装置からの任意の画像から指定される。検索は、この検索キー画像中の人物の画像特徴量を画像認識技術により抽出し、記録画像中の人物の画像特徴量と照合し、その類似性(類似度)を求め、同一人物判定を実施することにより実現される。同一人物判定では、一例として、比較する2つの画像の人物について画像特徴量の類似度を求め、その結果(類似度)が所定の基準値以上である場合に、これらの人物は同一人物であると判定する。なお、記録画像中の人物の画像特徴量の抽出と記録は、映像録画時等の別タイミングにて予め実施しておく。この検索のクエリにおいても、絞込みパラメータを与えることが可能である場合が多い。
特定人物の指定は、探したい人物が映った画像(以降、検索キー画像)をユーザが1ケ指定することで実施される。検索キー画像は、記録画像や外部装置からの任意の画像から指定される。検索は、この検索キー画像中の人物の画像特徴量を画像認識技術により抽出し、記録画像中の人物の画像特徴量と照合し、その類似性(類似度)を求め、同一人物判定を実施することにより実現される。同一人物判定では、一例として、比較する2つの画像の人物について画像特徴量の類似度を求め、その結果(類似度)が所定の基準値以上である場合に、これらの人物は同一人物であると判定する。なお、記録画像中の人物の画像特徴量の抽出と記録は、映像録画時等の別タイミングにて予め実施しておく。この検索のクエリにおいても、絞込みパラメータを与えることが可能である場合が多い。
両検索機能のどちらにおいても、検索結果には記録画像を取り出すためのリンケージ情報が付与されており、検索結果から記録画像の頭出し再生が可能になっている。
特許文献1には、このように検索キー画像を指定して、検索結果の画像から選択して、別の表示領域に表示して、それを次の検索キー画像にするなどしてユーザの利便性を高めるようにした画像検索装置が開示されている。
また、特許文献2には、ユーザの利便性をさらに高める類似画像検索システムが開示されている。この特許文献2では、ユーザは、類似画像検索の結果に対して、人名や特徴などのキーワードを付与する。画像検索には、二種類の検索方法が用意されており、キーワードが付与された画像を検索の対象から除く類似画像検索と、キーワードを付与された画像のみを検索の対象とする登場イベント検索がある。ユーザは、類似画像検索を複数回行い、充分多くの画像にキーワードを付与した判断をした後に、登場イベント検索を行う。
特許文献1には、このように検索キー画像を指定して、検索結果の画像から選択して、別の表示領域に表示して、それを次の検索キー画像にするなどしてユーザの利便性を高めるようにした画像検索装置が開示されている。
また、特許文献2には、ユーザの利便性をさらに高める類似画像検索システムが開示されている。この特許文献2では、ユーザは、類似画像検索の結果に対して、人名や特徴などのキーワードを付与する。画像検索には、二種類の検索方法が用意されており、キーワードが付与された画像を検索の対象から除く類似画像検索と、キーワードを付与された画像のみを検索の対象とする登場イベント検索がある。ユーザは、類似画像検索を複数回行い、充分多くの画像にキーワードを付与した判断をした後に、登場イベント検索を行う。
ところで、複数の監視エリアに設置した撮像装置で撮影した大量の動画ファイルは、画像記録装置に記録・保存される。そして、類似画像検索において、類似する顔画像を検索する場合には、監視者が監視端末を操作して、画像記録装置に記録・保存しておいた所定の動画ファイルを読み出して保存し、所定の動画ファイルの中から類似顔画像検索の基にする検索キー顔画像を捜して、その顔画像を設定・登録する必要がある。
そこで、動画ファイルの中から検索キー顔画像を捜す際、監視者は、動画ファイルを再生中に人物の有無を確認し、例えば、不審な人物が映っている箇所(フレーム)があれば一旦動画ファイルの再生を停止させ、目視でそのフレーム画像に映っている人物の顔を確認し、顔がはっきりと映っているかどうかを判断する。そして、人物の顔がはっきりと映っていれば、その人物の顔画像を検索キー顔画像として設定・登録し、その後、その検索キー画像を基にして、複数の撮像装置で撮影した複数の動画ファイルについて、類似顔画像検索を行う。
しかし、一旦停止したフレーム画像に映っている人物の顔が、後ろ向きであったり、横向きであったり、または、ぼやけていてはっきりしていなかった場合には、類似顔画像検索には不向きな顔画像であるため、再度、動画再生、一旦停止、及び顔の状態確認を行う必要がある。
つまり、監視者は、類似顔画像検索に使用する検索キー顔画像として適した顔画像を捜すために、動画ファイルの再生、一旦停止、及び顔の状態確認の一連の動作を複数回繰り返す必要があり、非常に時間と手間がかかるという問題があった。
また、監視者は、明らかに類似顔画像検索が可能な顔画像だと判断しても、類似顔画像検索を行う画像検索サーバ側で、顔の角度、大きさ、照明などによる影響によって、検索キー顔画像として使用できないと判断される場合もある。
つまり、監視者は、類似顔画像検索に使用する検索キー顔画像として適した顔画像を捜すために、動画ファイルの再生、一旦停止、及び顔の状態確認の一連の動作を複数回繰り返す必要があり、非常に時間と手間がかかるという問題があった。
また、監視者は、明らかに類似顔画像検索が可能な顔画像だと判断しても、類似顔画像検索を行う画像検索サーバ側で、顔の角度、大きさ、照明などによる影響によって、検索キー顔画像として使用できないと判断される場合もある。
本発明は、このような従来の事情に鑑みなされたものであり、動画ファイルの中から類似顔画像検索に使用する検索キー顔画像を効率良く捜すことが可能な画像検索システムを提供することを目的とする。
上記目的を達成するための本発明に係る画像検索システムは、撮像装置と、前記撮像装置から入力された動画ファイルを記録媒体に記録する画像検索サーバと、監視端末とから構成され、前記監視端末からの指示に基づき、前記画像検索サーバが、前記動画ファイルを構成する複数の画像フレームに映る顔画像の特徴量を抽出し、顔画像の類似度を評価し、検索キー顔画像を指定して、指定された当該検索キー顔画像に対して類似顔画像検索を行う画像検索システムであって、前記画像検索サーバは、前記監視端末からの指示に基づき、所定の動画ファイルを構成する複数の画像フレームの中から顔が映る顔画像フレームを検索する顔画像検索手段を備え、前記監視端末は、前記画像検索サーバから前記所定の動画ファイルをダウンロードして再生表示する動画再生表示エリアと、前記画像検索サーバの前記顔画像検索手段が検索した前記顔画像フレームの情報を基に、当該顔画像フレームの撮像時間をライン表示するタイムライン表示エリアと、を有する表示部を備えることを特徴とする。
また、上記目的を達成するための本発明に係る画像検索システムは、上記した画像検索システムにおいて、前記監視端末は、前記タイムライン表示エリアの位置を選択する選択手段を備え、前記選択手段で前記顔画像フレームの撮像時間が表示されたラインの任意の位置を選択すると、前記動画再生表示エリアに当該位置に応じた顔画像フレームを再生表示することを特徴とする。
また、上記目的を達成するための本発明に係る画像検索システムは、上記した画像検索システムにおいて、前記監視端末は、前記選択手段により、類似顔画像検索の検索キー顔画像として使用する前記顔画像フレームを選択して、当該顔画像フレーム情報を前記画像検索サーバに送信し、前記画像検索サーバは、前記監視端末から送信された前記顔画像フレーム情報に基づいて、類似顔画像検索を行うことを特徴とする。
本発明によれば、動画ファイルの中から類似顔画像検索に使用する検索キー顔画像を効率良く捜すことが可能な画像検索システムを提供することができる。
<実施形態1> 以下、本発明の実施形態1に係る画像検索システムについて、図面を参照して説明する。なお、各図の説明において、共通な機能を有する構成要素には同一の参照番号を付し、できるだけ説明の重複を避けるため、説明を省略するようにした。
まず、図1~図4を参照して、本発明の実施形態1に係る画像検索システムの構成について説明する。
図1には、本発明の実施形態1に係る画像検索システムのシステム構成を例示してある。
本発明の画像検索システムは、図1に示すように、ネットワーク200に、撮像装置201、画像検索サーバ102、監視端末103が接続され、互いに通信可能な状態で構成される。
図1には、本発明の実施形態1に係る画像検索システムのシステム構成を例示してある。
本発明の画像検索システムは、図1に示すように、ネットワーク200に、撮像装置201、画像検索サーバ102、監視端末103が接続され、互いに通信可能な状態で構成される。
ネットワーク200は、データ通信を行う専用ネットワークやイントラネット、インターネット、無線LAN(Local Area Network)等の各装置を相互に接続して通信を行う通信手段である。
撮像装置201は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)素子等で撮像した画像にデジタル変換処理を施し、変換結果の画像データを、ネットワーク200を介して画像検索サーバ102へ出力するネットワークカメラや監視カメラ等の装置である。
画像検索サーバ102は、ネットワーク200を介して撮像装置201より入力された画像データをHDD等の記録媒体に記録するネットワークデジタルレコーダ等の装置である。また、本サーバは、本発明の方式を含む人物検索機能も搭載している。
画像検索サーバ102は、機能構成として、画像送受信部210、画像記録部211、再生制御部212、人物領域検出部213、人物特徴量抽出部214、顔領域検出部111、顔特徴量抽出部112、人物・顔特徴量記録部215、属性情報記録部216、要求受信部217、顔画像検索部218、類似顔画像検索部219、検索結果送信部220の各処理部を有する。
画像検索サーバ102は、機能構成として、画像送受信部210、画像記録部211、再生制御部212、人物領域検出部213、人物特徴量抽出部214、顔領域検出部111、顔特徴量抽出部112、人物・顔特徴量記録部215、属性情報記録部216、要求受信部217、顔画像検索部218、類似顔画像検索部219、検索結果送信部220の各処理部を有する。
画像送受信部210は、サーバ外部からの画像の入出力を行う処理部であり、撮像装置201からの入力画像データの受信、監視端末103への出力画像データの送信を行う。
画像記録部211は、入力画像データの記録媒体への書込みや出力画像データの記録媒体からの読出しを行う。書込みの際には、画像データに加え、画像データを読出す際の情報となる画像ID(画像の識別情報)も併せて記録する。また、画像記録部211は、記録媒体の記憶容量が満杯になるのを防止するため、古い画像データに新たに撮影した画像データを自動的に上書きするようにしている。
再生制御部212は、監視端末103への映像再生を制御する。
画像記録部211は、入力画像データの記録媒体への書込みや出力画像データの記録媒体からの読出しを行う。書込みの際には、画像データに加え、画像データを読出す際の情報となる画像ID(画像の識別情報)も併せて記録する。また、画像記録部211は、記録媒体の記憶容量が満杯になるのを防止するため、古い画像データに新たに撮影した画像データを自動的に上書きするようにしている。
再生制御部212は、監視端末103への映像再生を制御する。
人物領域検出部213は、入力画像データに対し画像認識技術を用いた人物検出を行い、画像中の人物の存在判定をし、人物が存在する場合には、その領域の座標算出を行う。
人物特徴量抽出部214は、人物領域検出部213で検出した領域に対して画像認識技術を用いて特徴量算出を行う。ここで算出する人物特徴量とは、例えば、人物の輪郭の形状や方向、皮膚の色、歩容(どの脚をどのようにどんなタイミングで動かすかといった脚の捌き方)などである。
顔領域検出部111は、人物領域検出部213で検出した領域に対し画像認識技術を用いて顔の領域を判定し、その領域の座標算出を行う。
顔特徴量抽出部112は、顔領域検出部111で検出した領域に対して画像認識技術を用いて特徴量算出を行う。ここで算出する顔特徴量とは、例えば、人物を特定する代表的な部位である顔の輪郭の形状や方向、目や鼻、口といった主要構成要素の大きさ、形状、配置関係等である。
なお、本実施形態においては、人物特徴量抽出部214及び顔特徴量抽出部112で使用する特徴量の種類や数はいずれであってもよい。
人物特徴量抽出部214は、人物領域検出部213で検出した領域に対して画像認識技術を用いて特徴量算出を行う。ここで算出する人物特徴量とは、例えば、人物の輪郭の形状や方向、皮膚の色、歩容(どの脚をどのようにどんなタイミングで動かすかといった脚の捌き方)などである。
顔領域検出部111は、人物領域検出部213で検出した領域に対し画像認識技術を用いて顔の領域を判定し、その領域の座標算出を行う。
顔特徴量抽出部112は、顔領域検出部111で検出した領域に対して画像認識技術を用いて特徴量算出を行う。ここで算出する顔特徴量とは、例えば、人物を特定する代表的な部位である顔の輪郭の形状や方向、目や鼻、口といった主要構成要素の大きさ、形状、配置関係等である。
なお、本実施形態においては、人物特徴量抽出部214及び顔特徴量抽出部112で使用する特徴量の種類や数はいずれであってもよい。
人物・顔特徴量記録部215は、人物特徴量抽出部214及び顔特徴量抽出部112で算出した特徴量の記録媒体への書込みと読出しを行う。画像記録部211における画像データの記録媒体と本処理部における人物・顔特徴量の記録媒体とは同一であっても別個であってもよい。
属性情報記録部216は、画像データに関連する属性情報の記録媒体への書込みと読出しを行う。属性情報とは、例えば、画像の撮影時刻や撮像装置番号等である。
属性情報記録部216は、画像データに関連する属性情報の記録媒体への書込みと読出しを行う。属性情報とは、例えば、画像の撮影時刻や撮像装置番号等である。
要求受信部217は、監視端末103からの検索要求、動画ファイルダウンロード要求、顔画像一覧取得要求および検索キー顔画像登録要求の受信を行う。
顔画像検索部218は、要求受信部217にて受信した要求が顔画像検索要求であった場合に、顔画像検索を行う。顔画像検索部219は、人物・顔特徴量記録部215に登録された顔特徴量を基に、顔として類似顔画像検索が可能な顔画像ファイルを抽出する。
類似顔画像検索部219は、要求受信部217にて受信した要求が類似顔画像検索要求であった場合に、類似顔画像検索を行う。
顔画像検索部218は、要求受信部217にて受信した要求が顔画像検索要求であった場合に、顔画像検索を行う。顔画像検索部219は、人物・顔特徴量記録部215に登録された顔特徴量を基に、顔として類似顔画像検索が可能な顔画像ファイルを抽出する。
類似顔画像検索部219は、要求受信部217にて受信した要求が類似顔画像検索要求であった場合に、類似顔画像検索を行う。
検索結果送信部220は、顔画像検索部218や類似顔画像検索部219から得た顔画像検索結果や類似顔画像検索結果の監視端末103への送信を行う。
監視端末103は、ネットワーク機能を有する一般のPC(パーソナルコンピュータ)で実現してもよいし、専用の検索端末でもよい。
監視端末103は、機能構成として、検索要求送信部221、検索結果受信部222、検索結果表示部223、再生画像表示部224、画面操作検知部225の各処理部を有する。
監視端末103は、機能構成として、検索要求送信部221、検索結果受信部222、検索結果表示部223、再生画像表示部224、画面操作検知部225の各処理部を有する。
検索要求送信部221は、顔画像検索要求および類似顔画像検索要求の画像検索サーバ102への送信を行う。類似顔画像検索要求の場合、検索要求データには、類似顔画像検索の検索キーとして、所望の検索キー顔画像或いは所望の検索キー顔画像を特定するための画像IDが含まれる。また、検索要求データには、複数の検索キーを含めることも可能である。
検索結果受信部222は、検索結果の画像検索サーバ102からの受信を行う。検索結果として受信するデータには、画像検索サーバ102において、顔画像検索を実施して得られた顔検出時刻、また、類似顔画像検索を実施して得られた画像の集合が含まれる。なお、集合を構成する個々の画像は、画像検索サーバ102に記録された画像から画像サイズ縮小処理等を施して生成される。以下、この個々の画像を「検索結果画像」、検索結果として送受信するデータを「検索結果データ」という。
検索結果受信部222は、検索結果の画像検索サーバ102からの受信を行う。検索結果として受信するデータには、画像検索サーバ102において、顔画像検索を実施して得られた顔検出時刻、また、類似顔画像検索を実施して得られた画像の集合が含まれる。なお、集合を構成する個々の画像は、画像検索サーバ102に記録された画像から画像サイズ縮小処理等を施して生成される。以下、この個々の画像を「検索結果画像」、検索結果として送受信するデータを「検索結果データ」という。
検索結果表示部223は、検索結果受信部222にて受信した検索結果の画面表示を行う。表示される画面例については後述する。
再生画像表示部224は、画像検索サーバ102から入力された画像データの画面への連続動画表示を行う。
画面操作検知部225は、ユーザによる操作内容の検知及び取得を行う。
再生画像表示部224は、画像検索サーバ102から入力された画像データの画面への連続動画表示を行う。
画面操作検知部225は、ユーザによる操作内容の検知及び取得を行う。
図2には、本発明の実施形態1に係る画像検索システムに用いる撮像装置201のハードウェア構成を例示してある。
撮像装置201のハードウェア構成は、図2に示すように、撮像部241、主記憶部242、符号化部243、ネットワークインタフェース(I/F)244が、バス240で結合された形態である。
撮像装置201のハードウェア構成は、図2に示すように、撮像部241、主記憶部242、符号化部243、ネットワークインタフェース(I/F)244が、バス240で結合された形態である。
撮像部241は、レンズを通して撮像した光信号をデジタルデータに変換する。符号化部243は、撮像部241が出力するデジタルデータを符号化して、JPEG(Joint Photographic Experts Group)などの画像データに変換する。主記憶部242は、撮像したデジタルデータ、符号化された画像データを記憶する。ネットワークI/F244は、バス240に結合され、ネットワーク200を介して、主記憶部242上の画像データを画像検索サーバ102に送信するためのインタフェースである。
図3には、本発明の実施形態1に係る画像検索システムに用いる画像検索サーバ102のハードウェア構成を例示してある。
画像検索サーバ102のハードウェア構成は、図3に示すように、CPU(Central Processing Unit)251、主記憶部252、補助記憶部253、ネットワークI/F254が、バス250で結合された形態である。
画像検索サーバ102のハードウェア構成は、図3に示すように、CPU(Central Processing Unit)251、主記憶部252、補助記憶部253、ネットワークI/F254が、バス250で結合された形態である。
CPU251は、画像検索サーバ102の各部の制御と、機能を実現するためのプログラムの実行を行う。主記憶部252は、DRAM(Dynamic Random Access Memory)などの半導体装置で実現され、検索のための画像データやCPU251で実行するプログラムをロードして格納するための中間的なメモリである。補助記憶部253は、HDDやフラッシュメモリなどで実現され、主記憶部252より大容量のメモリであり、画像データやプログラムを格納する。ネットワークI/F254は、ネットワーク200を介して、撮像装置201からの画像データを受信したり、監視端末103から検索キーを受信したり、監視端末103に画像データを送信するためのインタフェースである。
図4には、本発明の実施形態1に係る画像検索システムに用いる監視端末103のハードウェア構成を例示してある。
監視端末103のハードウェア構成は、図4に示すように、CPU261、主記憶部262、補助記憶部263、表示I/F264、入出力I/F265、ネットワークI/F266が、バス260で結合された形態である。また、表示I/F264は、表示装置270と接続され、入出力I/F265は、キーボード280やマウス282などの入出力装置と接続される。
監視端末103のハードウェア構成は、図4に示すように、CPU261、主記憶部262、補助記憶部263、表示I/F264、入出力I/F265、ネットワークI/F266が、バス260で結合された形態である。また、表示I/F264は、表示装置270と接続され、入出力I/F265は、キーボード280やマウス282などの入出力装置と接続される。
CPU261は、監視端末103の各部の制御と、機能を実現するためのプログラムの実行を行う。主記憶部262は、DRAMなどの半導体装置で実現され、表示のための画像データやCPU261で実行するプログラムをロードして格納するための中間的なメモリである。補助記憶部263は、HDDやフラッシュメモリなどで実現され、主記憶部262より大容量のメモリであり、検索キーワード、画像データやプログラムを格納する。表示I/F264は、表示装置270と接続するためのインタフェースである。入出力I/F265は、キーボード280やマウス282などの入出力装置と接続するためのインタフェースである。ネットワークI/F266は、ネットワーク200を介して、画像検索サーバ102からの画像データを受信したり、画像検索サーバ102に検索キーを送信するためのインタフェースである。
表示装置270は、例えば、LCD(Liquid Crystal Display)などの装置であり、画像や動画をその表示部に表示する装置である。監視者は、表示装置270の表示部に表示された画像を、キーボード280やマウス282などの入出力装置を操作して、例えばGUI(Graphical User Interface)操作することによって、監視端末103及び画像検索システムを操作する。
表示装置270は、例えば、LCD(Liquid Crystal Display)などの装置であり、画像や動画をその表示部に表示する装置である。監視者は、表示装置270の表示部に表示された画像を、キーボード280やマウス282などの入出力装置を操作して、例えばGUI(Graphical User Interface)操作することによって、監視端末103及び画像検索システムを操作する。
次に、図5及び図6を用いて本発明の実施形態1に係る画像検索システムに用いられるデータ構造について説明する。図5は、本発明の画像検索システムに用いられる動画ファイルテーブル300のデータ構造の一実施例を示す図である。また、図6は、本発明の画像検索システムに用いられる属性情報データテーブル310のデータ構造の一実施例を示す図である。
動画ファイルテーブル300は、動画ファイル毎に画像データを格納するためのテーブルである。動画ファイルテーブル300には、各動画ファイルを構成する画像データ毎に画像ID301が付され、付された画像IDと関連付けられたフレームデータ302とが記録される。フレームデータ302は、例えば、JPEG形式のデータなどで記録される。
属性情報データテーブル310は、画像データを解析した結果の画像についての属性情報データを格納するためのテーブルである。属性情報データテーブル310には、登録ID311が識別のために付与され、付与された登録ID311と関連付けられて、画像ID312、特徴量313、カメラID314及び時刻情報315が記録される。
例えば、付与された登録ID311と関連付けられて、動画ファイルテーブル300に格納された画像フレームの一部が、画像ID312により指定される。また、その画像の人物・顔特徴量は、特徴量313に、撮像した撮像装置201のIDは、カメラID314に、フレームの撮像時刻に関する情報は、時刻情報315にと、各々のフィールドに格納される。
例えば、付与された登録ID311と関連付けられて、動画ファイルテーブル300に格納された画像フレームの一部が、画像ID312により指定される。また、その画像の人物・顔特徴量は、特徴量313に、撮像した撮像装置201のIDは、カメラID314に、フレームの撮像時刻に関する情報は、時刻情報315にと、各々のフィールドに格納される。
なお、例えば、録画のフレームレートが、30fps(Frames Per Second)のときに、画像の解析を行うのは、その中で、人がいると認識した部分であり、最大3fps程度のフレームレートで画像を捉えて解析を行うのが一般的である。
次に、図7及び図8を用いて、本発明の実施形態1に係る画像検索システムにおける監視端末103と画像検索サーバ102との間の処理シーケンスについて説明する。図7は、本発明の実施形態1に係る画像検索システムにおいて、監視端末103と画像検索サーバ102との間の処理シーケンスの一実施例を示す図である。また、図8は、本発明の実施形態1に係る画像検索システムにおいて、動画ファイルの中から類似顔画像検索に使用する検索キー顔画像を設定・登録し、類似顔画像検索を実施するまでの操作を説明するための検索画面の一実施例を示した図である。
図7に示すように、ステップS101において、監視者は、監視端末103を操作して、所望の監視領域を撮影している撮像装置201と、その撮像装置201が撮影した時間を指定し、画像検索サーバ102に対して、所望の動画ファイル(1)のダウンロード要求を行う。
ステップS102において、画像検索サーバ102では、画像送受信部210が、画像記録部211の動画ファイルテーブル300から、監視端末103より要求された動画ファイル(1)を読み出して、監視端末103に送信する。
ステップS103において、監視端末103では、画像検索サーバ102から動画ファイル(1)が送信されると、再生画像表示部224が、表示装置270の図8に示す操作画面上に、動画ファイル(1)の自動再生を開始する。図8に示す操作画面500において、501は動画再生エリアであって、受信した動画ファイル(1)は動画再生エリア501に自動再生され、監視者は、巻き戻し、再生、一時停止及び早送りの各ボタンを備えた動画再生用ボタン群503を操作しながら、画面に不審な人物などが映っていないかの確認を始める。
ステップS102において、画像検索サーバ102では、画像送受信部210が、画像記録部211の動画ファイルテーブル300から、監視端末103より要求された動画ファイル(1)を読み出して、監視端末103に送信する。
ステップS103において、監視端末103では、画像検索サーバ102から動画ファイル(1)が送信されると、再生画像表示部224が、表示装置270の図8に示す操作画面上に、動画ファイル(1)の自動再生を開始する。図8に示す操作画面500において、501は動画再生エリアであって、受信した動画ファイル(1)は動画再生エリア501に自動再生され、監視者は、巻き戻し、再生、一時停止及び早送りの各ボタンを備えた動画再生用ボタン群503を操作しながら、画面に不審な人物などが映っていないかの確認を始める。
ステップS104において、監視端末103では、検索要求送信部221が動画ファイル(1)に関する顔画像検索実行コマンドを画像検索サーバ102に送信する。
ステップS105において、画像検索サーバ102では、監視端末103から送信された顔画像検索実行コマンドに応答して、顔画像検索部218が画像記録部211の動画ファイルテーブル300から動画ファイル(1)を読み出して、顔画像検索処理を開始する。
ステップS106において、監視端末103では、検索要求送信部221が動画ファイル(1)に関する顔画像一覧取得コマンドを画像検索サーバ102に送信する。
ステップS107において、画像検索サーバ102では、監視端末103から送信された顔画像一覧取得コマンドに応答して、顔画像検索処理によってその時までに抽出した顔画像フレーム情報(識別ID、時刻情報等)をリスト化して監視端末103に送信する。
ステップS108において、監視端末103では、画像検索サーバ102から送信された顔画像フレーム情報リストに基づいて、再生画像表示部224が図8に示す操作画面500のタイムライン表示エリア504上に、斜線で示すように、顔検出時刻ライン504aを表示する。
ステップS105において、画像検索サーバ102では、監視端末103から送信された顔画像検索実行コマンドに応答して、顔画像検索部218が画像記録部211の動画ファイルテーブル300から動画ファイル(1)を読み出して、顔画像検索処理を開始する。
ステップS106において、監視端末103では、検索要求送信部221が動画ファイル(1)に関する顔画像一覧取得コマンドを画像検索サーバ102に送信する。
ステップS107において、画像検索サーバ102では、監視端末103から送信された顔画像一覧取得コマンドに応答して、顔画像検索処理によってその時までに抽出した顔画像フレーム情報(識別ID、時刻情報等)をリスト化して監視端末103に送信する。
ステップS108において、監視端末103では、画像検索サーバ102から送信された顔画像フレーム情報リストに基づいて、再生画像表示部224が図8に示す操作画面500のタイムライン表示エリア504上に、斜線で示すように、顔検出時刻ライン504aを表示する。
その後、ステップS109において、監視端末103では、検索要求送信部221が定期的に画像検索サーバ102に対して動画ファイル(1)に関する顔画像一覧取得コマンドを送信する。
ステップS110において、画像検索サーバ102では、監視端末103からの顔画像一覧取得コマンドに応答して、顔画像検索処理によってその時までに抽出した顔画像フレーム情報(識別ID、時刻情報等)をリスト化して監視端末103に送信する。
ステップS111において、監視端末103では、画像検索サーバ102から送信された顔画像フレーム情報リストに基づいて、再生画像表示部224が図8に示す操作画面500のタイムライン表示エリア504上に、顔検出時刻ライン504aをライン表示する。
なお、監視端末103と画像検索サーバ102との間では、ステップS109~ステップS111の処理を、画像検索サーバ102での動画ファイル(1)内の顔画像検索が終了するまで繰り返し行う。
ステップS110において、画像検索サーバ102では、監視端末103からの顔画像一覧取得コマンドに応答して、顔画像検索処理によってその時までに抽出した顔画像フレーム情報(識別ID、時刻情報等)をリスト化して監視端末103に送信する。
ステップS111において、監視端末103では、画像検索サーバ102から送信された顔画像フレーム情報リストに基づいて、再生画像表示部224が図8に示す操作画面500のタイムライン表示エリア504上に、顔検出時刻ライン504aをライン表示する。
なお、監視端末103と画像検索サーバ102との間では、ステップS109~ステップS111の処理を、画像検索サーバ102での動画ファイル(1)内の顔画像検索が終了するまで繰り返し行う。
画像検索サーバ102では、動画ファイル(1)内の顔画像検索が終了すると(ステップS112)、顔画像検索終了応答を監視端末103に送信する(ステップS113)。
ステップS114において、監視端末103では、検索要求送信部221が顔画像検索終了時までの動画ファイル(1)に関する顔画像一覧取得コマンドを画像検索サーバ102に送信する。
ステップS115において、画像検索サーバ102では、監視端末103から送信された顔画像一覧取得コマンドに応答して、顔画像検索処理によって顔画像検索終了時までに抽出した顔画像フレーム情報(識別ID、時刻情報等)をリスト化して監視端末103に送信する。
ステップS116において、監視端末103では、画像検索サーバ102から送信された顔画像フレーム情報リストに基づいて、再生画像表示部224が図8に示す操作画面500のタイムライン表示エリア504上に、顔検出時刻ライン504aをライン表示する。
ステップS114において、監視端末103では、検索要求送信部221が顔画像検索終了時までの動画ファイル(1)に関する顔画像一覧取得コマンドを画像検索サーバ102に送信する。
ステップS115において、画像検索サーバ102では、監視端末103から送信された顔画像一覧取得コマンドに応答して、顔画像検索処理によって顔画像検索終了時までに抽出した顔画像フレーム情報(識別ID、時刻情報等)をリスト化して監視端末103に送信する。
ステップS116において、監視端末103では、画像検索サーバ102から送信された顔画像フレーム情報リストに基づいて、再生画像表示部224が図8に示す操作画面500のタイムライン表示エリア504上に、顔検出時刻ライン504aをライン表示する。
上述したように、監視者が監視端末103を操作して、所望の動画ファイル(1)を再生し不審な人物等の監視を始めると同時に、監視端末103から画像検索サーバ102に対して動画ファイル(1)に関する顔画像検索要求が為されるので、監視者の目視による監視行動と並行して画像検索サーバ102で顔画像検索処理が行われることになる。
つまり、監視端末103での動画ファイル(1)再生による監視者の目視監視(顔画像検索)に比べて、画像検索サーバ102での顔画像検索処理の方が処理速度が速いため、図8の操作画面500において、動画再生エリア501で動画ファイル(1)を再生中に、ステップS108、S111及びS116による顔検出時刻のタイムライン表示処理によって、タイムライン表示エリア504の動画ファイル(1)の開始時刻(タイムライン表示エリア504の左端)から動画ファイル(1)の終了時刻(タイムライン表示エリア504の右端)に向かって徐々に顔検出時刻ライン504a(斜線部)が増えていくことになる。なお、エリア504b内に示す下向きの矢印は、画像検索サーバ102での顔画像検索処理の進行状況を示している。
つまり、監視端末103での動画ファイル(1)再生による監視者の目視監視(顔画像検索)に比べて、画像検索サーバ102での顔画像検索処理の方が処理速度が速いため、図8の操作画面500において、動画再生エリア501で動画ファイル(1)を再生中に、ステップS108、S111及びS116による顔検出時刻のタイムライン表示処理によって、タイムライン表示エリア504の動画ファイル(1)の開始時刻(タイムライン表示エリア504の左端)から動画ファイル(1)の終了時刻(タイムライン表示エリア504の右端)に向かって徐々に顔検出時刻ライン504a(斜線部)が増えていくことになる。なお、エリア504b内に示す下向きの矢印は、画像検索サーバ102での顔画像検索処理の進行状況を示している。
そこで、ステップS117において、監視者は、監視端末103の操作画面500で動画ファイル(1)再生による目視監視(顔画像検索)中であっても、類似顔画像検索に使用する検索キー顔画像を捜すために、マウス282を使ったドラッグ操作によって、例えば、図8のエリア505a内の上向きの矢印をエリア505b内の上向き点線の矢印の位置に移動させることにより、上向きの矢印が示す時刻での顔画像フレームを動画再生エリア501内に表示させて、検索キー顔画像に使用するか否かの確認及び選択を効率良く行うことができる。
また、操作画面500には、類似顔画像検索に使用する検索キー顔画像を選択するための前顔画像検出位置ボタン502a及び次顔画像検出位置ボタン502bを有している。前顔画像検出位置ボタン502aを押下することにより、上記した上向き矢印が現在示している時刻の顔画像フレームの前に存在する顔画像フレームの位置に移動して、当該顔画像フレームを動画再生エリア501内に表示させ、また、次顔画像検出位置ボタン502bを押下することにより、上記した上向き矢印が現在示している時刻の顔画像フレームの次に存在する顔画像フレームの位置に移動して、当該顔画像フレームを動画再生エリア501内に表示させる。
また、操作画面500には、類似顔画像検索に使用する検索キー顔画像を選択するための前顔画像検出位置ボタン502a及び次顔画像検出位置ボタン502bを有している。前顔画像検出位置ボタン502aを押下することにより、上記した上向き矢印が現在示している時刻の顔画像フレームの前に存在する顔画像フレームの位置に移動して、当該顔画像フレームを動画再生エリア501内に表示させ、また、次顔画像検出位置ボタン502bを押下することにより、上記した上向き矢印が現在示している時刻の顔画像フレームの次に存在する顔画像フレームの位置に移動して、当該顔画像フレームを動画再生エリア501内に表示させる。
次に、監視者は、複数の顔画像フレームの中から類似顔画像検索に使用する検索キー顔画像を含む顔画像フレームが決まった場合に、操作画面500右下にある類似顔画像検索実行ボタン506を押下することにより、類似顔画像検索に使用する検索キー顔画像を含む顔画像フレーム情報が画像検索サーバ102に送信される(ステップS118)。
ステップS119において、画像検索サーバ102では、属性情報記録部216が監視端末103から送信された類似顔画像検索に使用する検索キー顔画像を含む顔画像フレーム情報を基に属性情報データテーブル310に設定・登録を行う。
ステップS120において、画像検索サーバ102では、監視端末103から送信された類似顔画像検索に使用する検索キー顔画像に基づいて、所定の動画ファイルを対象に、特開2012-242878号公報等に開示された公知の技術を使い類似顔画像検索を行う。
ステップS119において、画像検索サーバ102では、属性情報記録部216が監視端末103から送信された類似顔画像検索に使用する検索キー顔画像を含む顔画像フレーム情報を基に属性情報データテーブル310に設定・登録を行う。
ステップS120において、画像検索サーバ102では、監視端末103から送信された類似顔画像検索に使用する検索キー顔画像に基づいて、所定の動画ファイルを対象に、特開2012-242878号公報等に開示された公知の技術を使い類似顔画像検索を行う。
以上説明したように、本発明の実施形態1に係る画像検索システムによれば、動画ファイルの中から類似顔画像検索に使用する検索キー顔画像を効率良く捜すことが可能な画像検索システムを提供することができる。
なお、上記実施形態の構成及び動作は例であって、本発明の趣旨を逸脱しない範囲で適宜変更して実行することができることは言うまでもない。
102:画像検索サーバ、103:監視端末、111:顔領域検出部、112:顔特徴量抽出部、200:ネットワーク、201:撮像装置、210:画像送受信部、211:画像記録部、212:再生制御部、213:人物領域検出部、214:人物特徴量抽出部、215:人物・顔特徴量記録部、216:属性情報記録部、217:要求受信部、218:顔画像検索部、219:類似顔画像検索部、220:検索結果送信部、221:検索要求送信部、222:検索結果受信部、223:検索結果表示部、224:再生画像表示部、225:画面操作検知部、240:バス、241:撮像部、242:主記憶部、243:符号化部、244:ネットワークインタフェース、250:バス、251:CPU、252:主記憶部、253:補助記憶部、254:ネットワークインタフェース、260:バス、261:CPU、262:主記憶部、263:補助記憶部、264:表示インタフェース、265:入出力インタフェース、266:ネットワークインタフェース、270:表示装置、280:キーボード、282:マウス、 300:動画ファイルテーブル、301:画像ID、302:フレームデータ、310:属性情報データテーブル、311:登録ID、312:画像ID、313:特徴量、314:カメラID、315:時刻情報、500:操作画面、501:動画再生エリア、502a:前顔画像検出位置ボタン、502b:次顔画像検出位置ボタン、503:動画再生用ボタン群、504:タイムライン表示エリア、504a:顔検出時刻ライン、504b:エリア、505a:エリア、505b:エリア、506:類似顔画像検索実行ボタン。
Claims (3)
- 撮像装置と、前記撮像装置から入力された動画ファイルを記録媒体に記録する画像検索サーバと、監視端末とから構成され、前記監視端末からの指示に基づき、前記画像検索サーバが、前記動画ファイルを構成する複数の画像フレームに映る顔画像の特徴量を抽出し、顔画像の類似度を評価し、検索キー顔画像を指定して、指定された当該検索キー顔画像に対して類似顔画像検索を行う画像検索システムであって、
前記画像検索サーバは、前記監視端末からの指示に基づき、所定の動画ファイルを構成する複数の画像フレームの中から顔が映る顔画像フレームを検索する顔画像検索手段を備え、
前記監視端末は、前記画像検索サーバから前記所定の動画ファイルをダウンロードして再生表示する動画再生表示エリアと、前記画像検索サーバの前記顔画像検索手段が検索した前記顔画像フレームの情報を基に、当該顔画像フレームの撮像時間をライン表示するタイムライン表示エリアと、を有する表示部を備えることを特徴とする画像検索システム。 - 請求項1記載の画像検索システムにおいて、
前記監視端末は、前記タイムライン表示エリアの位置を選択する選択手段を備え、前記選択手段で前記顔画像フレームの撮像時間が表示されたラインの任意の位置を選択すると、前記動画再生表示エリアに当該位置に応じた顔画像フレームを再生表示することを特徴とする画像検索システム。 - 請求項2に記載の画像検索システムにおいて、
前記監視端末は、前記選択手段により、類似顔画像検索の検索キー顔画像として使用する前記顔画像フレームを選択して、当該顔画像フレーム情報を前記画像検索サーバに送信し、
前記画像検索サーバは、前記監視端末から送信された前記顔画像フレーム情報に基づいて、類似顔画像検索を行うことを特徴とする画像検索システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016521039A JP6214762B2 (ja) | 2014-05-22 | 2015-05-11 | 画像検索システム、検索画面表示方法 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014106010 | 2014-05-22 | ||
JP2014-106010 | 2014-05-22 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2015178234A1 true WO2015178234A1 (ja) | 2015-11-26 |
Family
ID=54553907
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2015/063450 WO2015178234A1 (ja) | 2014-05-22 | 2015-05-11 | 画像検索システム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6214762B2 (ja) |
WO (1) | WO2015178234A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018180201A1 (ja) * | 2017-03-29 | 2018-10-04 | 株式会社日立国際電気 | 類似顔画像検索システム |
CN108769604A (zh) * | 2018-06-13 | 2018-11-06 | 深圳绿米联创科技有限公司 | 监控视频的处理方法、装置、终端设备及存储介质 |
JP2019212068A (ja) * | 2018-06-06 | 2019-12-12 | 日本電気株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2021100173A (ja) * | 2019-12-20 | 2021-07-01 | シャープ株式会社 | 監視システム及び監視方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008017041A (ja) * | 2006-07-04 | 2008-01-24 | Sony Corp | 情報処理装置および方法、並びにプログラム |
JP2011019192A (ja) * | 2009-07-10 | 2011-01-27 | Toshiba Corp | 画像表示装置 |
JP2012123460A (ja) * | 2010-12-06 | 2012-06-28 | Toshiba Corp | 映像検索装置、及び映像検索方法 |
WO2013069605A1 (ja) * | 2011-11-07 | 2013-05-16 | 株式会社日立国際電気 | 類似画像検索システム |
-
2015
- 2015-05-11 JP JP2016521039A patent/JP6214762B2/ja active Active
- 2015-05-11 WO PCT/JP2015/063450 patent/WO2015178234A1/ja active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008017041A (ja) * | 2006-07-04 | 2008-01-24 | Sony Corp | 情報処理装置および方法、並びにプログラム |
JP2011019192A (ja) * | 2009-07-10 | 2011-01-27 | Toshiba Corp | 画像表示装置 |
JP2012123460A (ja) * | 2010-12-06 | 2012-06-28 | Toshiba Corp | 映像検索装置、及び映像検索方法 |
WO2013069605A1 (ja) * | 2011-11-07 | 2013-05-16 | 株式会社日立国際電気 | 類似画像検索システム |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018180201A1 (ja) * | 2017-03-29 | 2018-10-04 | 株式会社日立国際電気 | 類似顔画像検索システム |
JP2019212068A (ja) * | 2018-06-06 | 2019-12-12 | 日本電気株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP7238274B2 (ja) | 2018-06-06 | 2023-03-14 | 日本電気株式会社 | 情報処理装置、情報処理方法及びプログラム |
CN108769604A (zh) * | 2018-06-13 | 2018-11-06 | 深圳绿米联创科技有限公司 | 监控视频的处理方法、装置、终端设备及存储介质 |
CN108769604B (zh) * | 2018-06-13 | 2021-01-26 | 深圳绿米联创科技有限公司 | 监控视频的处理方法、装置、终端设备及存储介质 |
JP2021100173A (ja) * | 2019-12-20 | 2021-07-01 | シャープ株式会社 | 監視システム及び監視方法 |
JP7406976B2 (ja) | 2019-12-20 | 2023-12-28 | シャープ株式会社 | 監視システム及び監視方法 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2015178234A1 (ja) | 2017-04-27 |
JP6214762B2 (ja) | 2017-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5863400B2 (ja) | 類似画像検索システム | |
US9013604B2 (en) | Video summary including a particular person | |
EP2710594B1 (en) | Video summary including a feature of interest | |
TWI588772B (zh) | 用於大量編修記錄資料的系統及方法 | |
KR100827846B1 (ko) | 동영상에 포함된 특정 인물을 검색하여 원하는 시점부터재생하기 위한 방법 및 시스템 | |
JP5506324B2 (ja) | 類似画像検索システム、および、類似画像検索方法 | |
CN101267523A (zh) | 信息处理和成像设备、图像显示控制方法及计算机程序 | |
JP6589082B2 (ja) | 類似画像検索システム | |
JP6214762B2 (ja) | 画像検索システム、検索画面表示方法 | |
JP6203188B2 (ja) | 類似画像検索装置 | |
JP6485978B2 (ja) | 画像処理装置および画像処理システム | |
JP6210634B2 (ja) | 画像検索システム | |
JP5826513B2 (ja) | 類似画像検索システム | |
JP4326753B2 (ja) | 映像情報インデキシング支援システム、プログラム及び記憶媒体 | |
JP5147737B2 (ja) | 撮像装置 | |
WO2017056948A1 (ja) | 画像処理システム | |
GB2570498A (en) | A method and user device for displaying video data, a method and apparatus for streaming video data and a video surveillance system | |
JP2005045606A (ja) | 画像処理方法、画像処理装置、プログラム | |
US20150229786A1 (en) | Communication device and control method of communication device | |
JP2016167716A (ja) | 撮像装置 | |
JP2010212821A (ja) | 記録再生装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 15796719 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2016521039 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 15796719 Country of ref document: EP Kind code of ref document: A1 |