WO2019106997A1 - 検索システム、サーバ、端末装置、サーバの動作方法、端末装置の動作方法及びプログラム - Google Patents

検索システム、サーバ、端末装置、サーバの動作方法、端末装置の動作方法及びプログラム Download PDF

Info

Publication number
WO2019106997A1
WO2019106997A1 PCT/JP2018/038796 JP2018038796W WO2019106997A1 WO 2019106997 A1 WO2019106997 A1 WO 2019106997A1 JP 2018038796 W JP2018038796 W JP 2018038796W WO 2019106997 A1 WO2019106997 A1 WO 2019106997A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
search
information
server
personal information
Prior art date
Application number
PCT/JP2018/038796
Other languages
English (en)
French (fr)
Inventor
健全 劉
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2019557063A priority Critical patent/JP7014232B2/ja
Priority to US16/767,953 priority patent/US20200372070A1/en
Publication of WO2019106997A1 publication Critical patent/WO2019106997A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/7854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using shape
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/532Query formulation, e.g. graphical querying

Definitions

  • the present invention relates to a search system, a server, a terminal device, an operation method of the server, an operation method of the terminal device, and a program.
  • Patent document 1 inputs the rough shape of the figure which the user drew on the display screen, extracted the object similar to the shape of the figure which the user drew from the database of images and objects, and the user drew the extracted object
  • a technique is disclosed which is arranged at a position corresponding to a figure, and is finished and output as a single image without discomfort by combining it with a background image etc. as a figure.
  • Non-Patent Document 1 discloses a moving image search technology based on a handwritten image. In this technique, when the input of the handwritten image is accepted in the input field, a scene similar to the handwritten image is retrieved and output. In addition, a figure similar to a handwritten figure is presented as an input candidate, and when one of the input candidates is selected, the handwritten figure in the input field is replaced with the selected figure.
  • An object of the present invention is to provide a technique for searching for a desired scene with high accuracy.
  • the terminal device is Display control means for displaying a search key input field as well as displaying a search result on the display; Input receiving means for acquiring the input information input in the input field; Terminal-side transmission means for transmitting the input information to the server; Terminal-side receiving means for receiving the search result from the server; Have The server is Search information storage means for storing personal information in which the feature of the appearance of the person extracted from the moving image is associated with the feature of the movement; Server-side receiving means for receiving the input information from the terminal device; A first search unit that searches the search information storage unit using the input information as a key, and acquires the personal information including the input information; Server side transmission means for transmitting at least a part of the personal information acquired by the first search means as the search result to the terminal device; Have The server or the terminal device is Input complementary data storage means for reading out and storing a part or all of the personal information stored in the search information storage means from the search information storage means; A second search unit that searches the input complementary data storage unit using the input information
  • Display control means for displaying a search key input field as well as displaying a search result on the display; Input receiving means for acquiring the input information input in the input field; Terminal-side transmission means for transmitting the input information to the server; Terminal-side receiving means for receiving the search result from the server; Input complementary data storage means for acquiring and storing, from the server, a part or all of personal information in which the feature of the appearance of the person extracted from the moving image stored in the server is associated with the feature of the movement; A second search unit that searches the input complementary data storage unit using the input information as a key, and acquires the personal information including the input information;
  • the display control means is provided with a terminal device which causes at least a part of the personal information acquired by the second search means to be displayed on the display as a candidate of information to be input in the input field.
  • Search information storage means for storing personal information in which the feature of the appearance of the person extracted from the moving image is associated with the feature of the movement;
  • Server-side receiving means for receiving from the terminal device the input information input in the search key input field;
  • a first search unit that searches the search information storage unit using the input information as a key, and acquires the personal information including the input information;
  • Server side transmission means for transmitting at least a part of the personal information acquired by the first search means as the search result to the terminal device;
  • a server is provided.
  • the computer is A display control step of displaying a search key input field on a display and displaying a search result on the display; An input receiving step of acquiring input information input in the input field; A terminal side transmission step of transmitting the input information to the server; A terminal side receiving step of receiving the search result from the server; Input that acquires, from the server, part or all of personal information in which the feature of the appearance of the person and the feature of the motion extracted from the moving image stored in the server are associated with the input information as a key A second search step of searching complementary data storage means and acquiring the personal information including the input information; Run In the display control step, there is provided an operation method of a terminal device which causes at least a part of the personal information acquired in the second search step to be displayed on the display as a candidate of information input to the input field. .
  • Computer, Display control means for displaying an input field of a search key on a display and displaying a search result on the display; Input accepting means for acquiring the input information input in the input field; Terminal side transmission means for transmitting the input information to the server; Terminal side receiving means for receiving the search result from the server; Input complementary data storage means for acquiring and storing, from the server, part or all of personal information correlating the feature of the appearance of the person extracted from the moving image stored in the server with the feature of the movement; A second search unit that searches the input complementary data storage unit using the input information as a key, and acquires the personal information including the input information; To act as The display control means is provided with a program for causing at least a part of the personal information acquired by the second search means to be displayed on the display as a candidate of information to be input in the input field.
  • the computer is A server-side receiving step of receiving from the terminal device the input information input in the search key input field;
  • the search information storage means storing the personal information in which the feature of the appearance of the person extracted from the moving image is associated with the feature of the movement extracted from the moving image is searched using the input information as a key, and the personal information including the input information is acquired
  • Computer Search information storage means for storing personal information in which the feature of the appearance of the person extracted from the moving image is associated with the feature of the movement
  • Server side receiving means for receiving from the terminal device the input information input in the search key input field
  • First search means for searching the search information storage means using the input information as a key, and acquiring the personal information including the input information
  • Server side transmission means for transmitting at least a part of the personal information acquired by the first search means as the search result to the terminal device;
  • the search system stores, in the storage unit, personal information in which the feature of the appearance of the person extracted from the moving image is associated with the feature of the movement. Then, the storage means is searched using the appearance feature and the movement feature of the person as a key, and the person having the predetermined appearance and the feature of the movement is extracted from the moving image, or the scene where the person having the predetermined appearance and the feature of the movement is photographed Can be extracted. According to the search system of the present embodiment that can search for moving images using the movement of a person as a key as well as the characteristics of the appearance of a person, the search results can be sufficiently narrowed down, and high-accuracy search can be realized.
  • the search system of the present embodiment has a terminal device 10 and a server 20.
  • the terminal device 10 and the server 20 are configured to be able to communicate with each other in a wired and / or wireless manner.
  • the terminal device 10 and the server 20 may communicate directly (without other devices), for example, in a wired and / or wireless manner.
  • the terminal device 10 and the server 20 may communicate (through other devices) via, for example, wired and / or wireless public and / or private communication networks.
  • Each unit of the terminal device 10 and the server 20 includes a central processing unit (CPU) of any computer, a memory, a program loaded to the memory, a storage unit such as a hard disk storing the program (the device is shipped in advance)
  • CPU central processing unit
  • storage unit such as a hard disk storing the program (the device is shipped in advance)
  • programs stored in storage media such as CDs (Compact Disc), etc.
  • FIG. 2 is a block diagram illustrating the hardware configuration of the terminal device 10 and the server 20 according to the present embodiment.
  • each of the terminal device 10 and the server 20 includes a processor 1A, a memory 2A, an input / output interface 3A, a peripheral circuit 4A, and a bus 5A.
  • Peripheral circuit 4A includes various modules. The peripheral circuit 4A may not be provided.
  • the bus 5A is a data transmission path for the processor 1A, the memory 2A, the peripheral circuit 4A, and the input / output interface 3A to mutually transmit and receive data.
  • the processor 1A is, for example, an arithmetic processing unit such as a central processing unit (CPU) or a graphics processing unit (GPU).
  • the memory 2A is, for example, a memory such as a random access memory (RAM) or a read only memory (ROM).
  • the input / output interface 3A is an interface for acquiring information from an input device (eg, keyboard, mouse, microphone, etc.), an external device, an external server, an external sensor, etc., an output device (eg, display, speaker, printer, mailer) Etc.), an interface for outputting information to an external device, an external server, etc.
  • the processor 1A can issue an instruction to each module and perform an operation based on the result of the operation.
  • the server 20 has a search function. That is, the server 20 stores the personal information in which the feature of the appearance of the person extracted from the moving image is associated with the feature of the movement, and searches the personal information using the input information received from the terminal device 10 as a key. Is sent back to the terminal device 10.
  • the terminal device 10 has an input / output function. That is, the terminal device 10 receives an input to the input field displayed on the display, transmits the input information to the server 20, receives a search result from the server 20, and displays the received search result on the display (I / O function)
  • the terminal device 10 has an input complementing function that assists the input to the input field. That is, the terminal device 10 stores input complementary information for complementing the input in the input field, searches the input complementary information using the input information input in the input field as a key, and extracts the extracted input complementary information in the input field. It has a function of displaying on the display as a candidate for input information. When one of the candidates is selected, the selected candidate is input as input information in the input field.
  • the server 20 includes a server-side transmission unit 21, a server-side reception unit 22, a search information storage unit 23, and a first search unit 24.
  • the terminal device 10 includes a display control unit 11, an input receiving unit 12, a terminal side transmission unit 13, a terminal side reception unit 14, an input complementary data storage unit 15, and a second search unit 16. .
  • the search function of the server 20 is realized by the server side transmission unit 21, the server side reception unit 22, the search information storage unit 23, and the first search unit 24.
  • the search information storage unit 23 stores personal information in which the feature of the appearance of the person extracted from the moving image is associated with the feature of the movement.
  • the search information storage unit 23 is a non-volatile storage device (example: HDD (hard disk drive)).
  • the server side reception unit 22 receives, from the terminal device, the input information input to the search key input field.
  • the first search unit 24 searches the search information storage unit 23 using the input information as a key, and acquires personal information including the input information.
  • the server-side transmission unit 21 transmits at least a part of the personal information acquired by the first search unit 24 to the terminal device 10 as a search result.
  • the input / output function of the terminal device 10 is realized by the display control unit 11, the input reception unit 12, the terminal side transmission unit 13, and the terminal side reception unit 14.
  • the display control unit 11 displays an input field of the search key on the display.
  • the input receiving unit 12 acquires input information input in the search key input field.
  • the terminal-side transmission unit 13 transmits the input information to the server 20.
  • the terminal side receiving unit 14 receives the search result from the server.
  • the display control unit 11 causes the display to display the search result transmitted from the server 20.
  • the input complementing function of the terminal device 10 is realized by the display control unit 11, the input accepting unit 12, the input complementing data storage unit 15, and the second searching unit 16.
  • the input complementary data storage unit 15 reads out part or all of the personal information stored in the search information storage unit 23 from the search information storage unit 23 and stores it.
  • the input complementary data storage unit 15 is a volatile storage device (e.g., a RAM).
  • the second search unit 16 searches the input complementary data storage unit 15 using the input information as a key, and acquires personal information including the input information.
  • the display control unit 11 causes the display to display at least a part of the personal information acquired by the second search unit 16 as a candidate for the information to be input in the input field.
  • the information stored in the input complementary data storage unit 15 is the above-described input complementary information.
  • FIG. 4 schematically shows an example of person information.
  • the illustrated personal information mutually associates a person ID (identifier) given to the person extracted from the moving image, a feature of the appearance of the person, and a feature of the movement of the person.
  • the characteristics of the appearance of the person include, but are not limited to, facial characteristics, gender, age group, nationality, body type, characteristics of things worn, characteristics of belongings, and the like.
  • the facial features can be expressed using, for example, facial parts or the like, but the details thereof are not limited.
  • the features of the item to be worn are expressed by type, color, pattern, shape, etc., such as, for example, a blue cap, black pants, white skirt, black high heels and the like.
  • the features of the belongings are expressed by type, color, pattern, shape, etc., such as a black rose, a red umbrella, a camouflage patterned rucksack, and the like.
  • the characteristics of movement include, but are not limited to, running, walking, stationary, looking up, sitting on a bench, characteristics of movement trajectory and the like.
  • the feature of the movement trajectory is, for example, a relative relationship (eg, approaching, distance) with an object shown in the image, such as moving toward a predetermined object (eg, bench). May be expressed as
  • FIG. 5 schematically shows another example of the person information.
  • a person ID identifier
  • a feature of the appearance of the person a feature of the movement of the person, and a feature of the background of the person are mutually associated ing.
  • the characteristic of the background is expressed by an object or the like appearing in the background of the extracted person, such as a crowd, a group of buildings, a station, a park, a bench, a convenience store and the like.
  • the personal information is information specifying a moving image file including a state in which each person moves (eg: file name) and information specifying a scene thereof (eg: time from the beginning of the moving image file) May be further included.
  • the person information may further include still images of scenes in which each person moves.
  • the moving image may be a moving image captured by a monitoring device installed in a street corner, or may be a moving image captured by a user using his or her imaging device.
  • the means for generating personal information based on a moving image will be described by way of example in the following embodiment, but is not particularly limited in this embodiment.
  • the search information storage unit 23 may further store a plurality of graphic templates. Then, the input complementary data storage unit 15 may further read the template of the figure from the search information storage unit 23 and store it. The usage of the template is described below.
  • the input reception unit 12 acquires input information indicating the feature of the appearance of the person and the feature of the movement. In addition, the input reception unit 12 can acquire input information indicating the feature of the background of a person.
  • FIG. 6 shows an example of the input field displayed by the display control unit 11 on the display.
  • the input receiving unit 12 can receive an input of a search key by direct input of text in an input field as illustrated.
  • the input receiving unit 12 may receive inputs such as facial features, gender, age group, nationality, body type, features of things worn, features of belongings, features of movement, features of background, and the like.
  • the input receiving unit 12 may be able to receive inputs of a plurality of words at one time.
  • a search expression in which a plurality of words are combined by a predetermined operator may be input.
  • the operator may be designated by characters such as and, or, not.
  • characters such as and, or, not.
  • "man and 50's and black trousers and running” and the like are illustrated.
  • male in 50s running in black pants and running is a search target, and such a person or a scene including such a person is extracted.
  • words listed after “sex:” are gender
  • words listed after “age:” are age layers
  • words listed after “move:” are features of movement, etc.
  • the type of the feature may be designated by the letter or word to be added. As an example, “sex: male and age: 50s and move: run” etc. are illustrated.
  • GUI graphical user interface
  • the first search unit 24 searches the search information storage unit 23 and extracts personal information including the input information. Then, the display control unit 11 causes the display to display a list of the extracted persons as a search result.
  • FIG. 7 shows an example of the screen displayed on the display.
  • An input field is displayed on the upper left of the screen.
  • search results by the first search unit 24 are shown.
  • a list of scenes in which a person corresponding to each piece of person information extracted by the first search unit 24 moves corresponding to each person is displayed as a search result.
  • playback of the moving image including the scene may be started.
  • the second search unit 16 searches the input complementary data storage unit 15 and extracts personal information including the input information. Then, the display control unit 11 can cause the display to display the feature included in the extracted personal information as a candidate of the information input to the input field.
  • the feature to be displayed as a candidate of the input information may be a feature of a type not included in the search formula.
  • the search expression is "male and 50's and black trousers and run”
  • the second search unit 16 is a different type of facial feature, nationality, figure, belonging feature, background feature, etc.
  • the information may be extracted from the extracted personal information and displayed on the display as a candidate of the information input in the input field. In the case of the screen example of FIG. 7, candidates for information to be input in the input field are listed below the input field in a selectable manner.
  • the word may be displayed in the input field.
  • background features such as “building group, crowd, " are candidates as information input in the input field. It is displayed that "building group” is selected from among them.
  • the display of the input field may change to "man and 50's and black trousers and running and building group".
  • the first search unit 24 and the second search unit 16 re-execute the search using the new search expression, and the display or the input of the search result by the first search unit 24
  • the display of the candidate of the information input into the column may be switched.
  • the input receiving unit 12 may receive an input of an image.
  • the image shows, for example, features of the appearance of the person and features of the background.
  • the user may input an image file showing a person to be searched for, a person whose appearance characteristics are similar to the person to be searched, a background of the person to be searched, a background similar to the background of the person to be searched, etc. it can.
  • the input receiving unit 12 may receive an input for handwriting an image in the input field.
  • the display control unit 11 may cause the display to display an input field for handwriting an image as shown in FIG. And in the said input column, as shown in FIG.9 and FIG.10, you may draw a figure etc. by handwriting.
  • the second search unit 16 searches a template of a plurality of figures stored in the input complementary data storage unit 15 using the handwritten figure as a key, and extracts figures having similar levels or more. Good. Then, the display control unit 11 may cause the display to display the figures extracted by the second search unit 16 as candidates for information to be input in the input field. In this case, when one of the candidates is selected, the handwritten graphic displayed in the input field is replaced with the selected graphic.
  • the timing at which the search by the second search unit 16 and the display of the candidate by the display control unit 11 are performed is a design matter, and is drawn in the input field at any time during drawing of a figure. A search or display of candidates may be executed using input graphics as input information.
  • the input reception unit 12 may receive the input of the movement feature by the same means as in the first example. That is, the input reception unit 12 may receive the input of the movement feature by direct input of the text in the input field.
  • the input reception unit 12 may receive the input of the feature of the movement by receiving a predetermined operation on the image (graphic) displayed in the input field. For example, when a person and a bench (background) are displayed in the input field as shown in FIG. 10, if a drag and drop operation of dragging a person, moving it to the bench and dropping it is accepted, A feature of movement to "move towards" may be input.
  • the second search unit 16 searches the input complementary data storage unit 15 using the input information (image, word, etc.) currently input in the input field as a key, and extracts personal information including the input information. Do. Then, the display control unit 11 may cause the display to display guidance of an input operation (such as the above-described drag and drop operation) corresponding to the feature of the movement included in the extracted personal information. For example, by displaying an arrow from the person in the input field shown in FIG. 10 toward the bench in the input field, a drag and drop operation may be performed in which the person is dragged, moved to the bench and dropped.
  • an input operation such as the above-described drag and drop operation
  • the display control unit 11 displays a drop-down list or check box for selecting a feature of movement. And the like may be displayed on the display. Then, the input receiving unit 12 may receive an input for selecting a feature of movement from the GUI component.
  • the second search unit 16 searches the input complementary data storage unit 15 using the input information (image, word, etc.) currently input in the input field as a key, and extracts personal information including the input information. Do. Then, the display control unit 11 displays GUI components such as a drop-down list and a check box including the feature of the movement included in the extracted personal information as an option. In the search using an image as a key, personal information similar to the image of the input information by a predetermined level or more may be extracted.
  • the similarity between the appearance of the person in the “still image of the scene in which each person moved each” included in the person information and the image of the person in the input information is determined, and is similar to the image of the input information
  • Person information corresponding to a still image including a person may be extracted.
  • the similarity between the background of the person in the “still image of the scene in which each person moved each” included in the person information and the image of the background of the input information eg, the bench in FIG. 10) is determined.
  • Person information corresponding to a still image including a portion similar in a predetermined level or more to the image of the background for example, a still image including a bench similar to a bench in a predetermined level or more to the bench in FIG. 10) may be extracted.
  • the first search unit 24 can search the search information storage unit 23 using the input information input in the input field as a key, and can extract personal information including the input information. Then, the display control unit 11 can display a list of the extracted personal information on the display as a search result. Further, as in Example 1, the second search unit 16 can search the input complementary data storage unit 15 using the input information input in the input field as a key, and can extract personal information including the input information. .
  • the second search unit 16 searches the input complementary data storage unit 15 (S11). Then, based on the search result by the second search unit 16, the display control unit 11 causes the display to display information candidates to be input in the input field (S12).
  • the server-side reception unit 22 acquires input information from the terminal device 10 (Yes in S20)
  • the first search unit 24 searches the search information storage unit 23 (S21).
  • the server side transmission part 21 transmits a search result to the terminal device 10 (S22).
  • the search system of the present embodiment described above searches for a feature of the appearance of the person and a feature of the movement as keys, and extracts a person having a predetermined feature (a feature of the appearance and a feature of the movement) from the moving image, A scene in which a person with a predetermined feature is shown can be extracted.
  • the search system of the present embodiment that can search for moving pictures using motion as a key as well as the characteristics of the appearance of a person, the search results can be sufficiently narrowed down, and high-precision search can be realized.
  • the user can input an image as a search key.
  • the input means is highly convenient for the user who is not good at converting the appearance and background characteristics of the person in his / her head into characters.
  • a part or all of the personal information stored in the search information storage unit 23 is stored in the input complementary data storage unit 15 and stored in the input complementary data storage unit 15
  • Candidates of information to be input in the input field can be determined based on personal information that is present and information that has been input in the input field so far, and can be provided to the user. According to such a search system of this embodiment, it is possible to assist the user's input.
  • the candidate of the information to be input is determined based on the personal information stored in the search information storage unit 23, the information is useful information for narrowing down the search results.
  • FIG. 13 shows an example of a functional block diagram of the search system of the present embodiment.
  • the present embodiment is characterized in that the server 20 includes the input complementary data storage unit 15 and the second search unit 16, and the terminal device 10 does not include the input complementary data storage unit 15 and the second search unit 16. It differs from the first embodiment.
  • the terminal device 10 transmits information used for the search by the second search unit 16 to the server 20, and acquires the search result of the second search unit 16 from the server 20.
  • an example of a method of creating personal information stored in the search information storage unit 23 is provided.
  • the following processing may be performed by the server 20 or may be performed by an apparatus different from the server 20.
  • a person is extracted from each of a plurality of frames. Then, it is determined whether the person extracted from a certain frame and the person extracted from the previous frames are the same person, and the same persons are grouped. The above judgment may be made by comparing all pairs of appearance characteristics of each person extracted from the previous frame and appearance characteristics of each person extracted from a certain frame. .
  • this processing as the accumulated data of the person increases, the number of pairs to be compared becomes enormous and the processing load becomes large. Therefore, for example, the following method may be adopted.
  • the extracted person may be indexed as shown in FIG. 14, and the index may be used to determine whether the extracted person is the same person as the person extracted earlier.
  • the processing speed can be increased by using the index.
  • the details and generation method of the index are disclosed in Patent Documents 2 and 3, but will be briefly described below.
  • the extraction ID (identifier) shown in FIG. 14: "F ⁇ - ⁇ - ⁇ " is identification information attached to each person extracted from each frame.
  • F ⁇ is a frame identification information, and the hyphen and the following are identification information of each person extracted from each frame. If the same person is extracted from different frames, different extraction IDs will be assigned to each.
  • the third layer nodes corresponding to all extraction IDs obtained from the frames processed so far are arranged. Then, the plurality of nodes arranged in the third layer are grouped together by groups whose degree of similarity (the degree of similarity of appearance feature amounts) is equal to or higher than the first level. In the third layer, a plurality of extraction IDs determined to relate to the same person are grouped. That is, the first level of the degree of similarity is set to a value that enables such grouping. Person identification information (person ID) is attached corresponding to each group in the third layer.
  • one node (representative) selected from each of the plurality of groups in the third layer is arranged, and is linked to the corresponding group in the third layer.
  • the plurality of nodes arranged in the second layer are grouped together by those whose degree of similarity is equal to or higher than the second level. Note that the second level of similarity is lower than the first level. That is, nodes not grouped according to the first level may be grouped according to the second level.
  • one node (representative) selected from each of the plurality of groups in the second layer is arranged, and is linked to the corresponding group in the second layer.
  • a new extraction ID is obtained from a new frame
  • a plurality of extraction IDs located in the first layer are compared. That is, a pair is created with the new extraction ID and each of the plurality of extraction IDs located in the first layer.
  • the degree of similarity is calculated for each pair, and it is determined whether the calculated degree of similarity is equal to or greater than a first threshold (similar to a predetermined level or more).
  • the comparison target is moved to the second layer.
  • the group of the second layer linked to “the extraction ID of the first layer determined to have the degree of similarity equal to or higher than the first threshold” is set as the comparison target.
  • a pair is created with the new extraction ID and each of the plurality of extraction IDs included in the processing target group of the second layer.
  • the similarity is calculated for each pair, and it is determined whether the calculated similarity is equal to or greater than a second threshold.
  • the second threshold is higher than the first threshold.
  • the person corresponding to the new extraction ID is the same person as the person extracted before that. I judge that there is. Then, the new extraction ID is made to belong to the group of the third layer linked to “the extraction ID of the second layer determined that the similarity is equal to or higher than the second threshold”. Also, the person ID corresponding to the group in the third layer is specified as the person ID of the person corresponding to the new extraction ID.
  • one or more extraction IDs extracted from a new frame can be added to the index of FIG. 14 and a person ID can be associated with each.
  • the characteristic of appearance of each person, the characteristic of movement and the characteristic of background may be generated by processing by a computer, or a human may visually recognize a moving image to judge various characteristics and input them to the computer.
  • computer processing it can be realized using any technology.
  • Terminal and server The terminal device is Display control means for displaying a search key input field as well as displaying a search result on the display; Input receiving means for acquiring the input information input in the input field; Terminal-side transmission means for transmitting the input information to the server; Terminal-side receiving means for receiving the search result from the server; Have The server is Search information storage means for storing personal information in which the feature of the appearance of the person extracted from the moving image is associated with the feature of the movement; Server-side receiving means for receiving the input information from the terminal device; A first search unit that searches the search information storage unit using the input information as a key, and acquires the personal information including the input information; Server side transmission means for transmitting at least a part of the personal information acquired by the first search means as the search result to the terminal device; Have The server or the terminal device is Input complementary data storage means for reading out and storing a part or all of the personal information stored in the search information storage means from the search information storage means; A second search unit that
  • the input receiving unit acquires the input information indicating a feature of appearance and a feature of movement of a person. 3. In the search system described in 2, The search system, wherein the input receiving unit acquires an image as the input information indicating a feature of the appearance of a person. 4. In the search system according to any one of 1 to 3, The search system, wherein the personal information further includes background features. 5. In the search system described in 4, The search system, wherein the input receiving unit acquires the input information indicating a feature of a background. 6. In the search system described in 5, The search system, wherein the input receiving unit acquires an image as the input information indicating a feature of a background. 7.
  • the input receiving unit acquires the image handwritten in the input field.
  • the personal information further includes image data indicating that each person has performed each movement.
  • Display control means for displaying a search key input field as well as displaying a search result on the display; Input receiving means for acquiring the input information input in the input field; Terminal-side transmission means for transmitting the input information to the server; Terminal-side receiving means for receiving the search result from the server; Input complementary data storage means for acquiring and storing, from the server, a part or all of personal information in which the feature of the appearance of the person extracted from the moving image stored in the server is associated with the feature of the movement; A second search unit that searches the input complementary data storage unit using the input information as a key, and acquires the personal information including the input information; Have The terminal device for causing the display to display at least a part of the personal information acquired by the second search unit as a candidate of information input to the input field.
  • Search information storage means for storing personal information in which the feature of the appearance of the person extracted from the moving image is associated with the feature of the movement;
  • Server-side receiving means for receiving from the terminal device the input information input in the search key input field;
  • a first search unit that searches the search information storage unit using the input information as a key, and acquires the personal information including the input information;
  • Server side transmission means for transmitting at least a part of the personal information acquired by the first search means as the search result to the terminal device; Server with. 11.
  • Input complementary data storage means for reading out and storing a part or all of the personal information stored in the search information storage means from the search information storage means;
  • a second search unit that searches the input complementary data storage unit using the input information as a key, and acquires the personal information including the input information;
  • a server further having 12.
  • the computer is A display control step of displaying a search key input field on a display and displaying a search result on the display; An input receiving step of acquiring input information input in the input field; A terminal side transmission step of transmitting the input information to the server; A terminal side receiving step of receiving the search result from the server; Input that acquires, from the server, part or all of personal information in which the feature of the appearance of the person and the feature of the motion extracted from the moving image stored in the server are associated with the input information as a key A second search step of searching complementary data storage means and acquiring the personal information including the input information; Run In the display control step, an operation method of a terminal device which causes at least a part of the personal information acquired in the second search step to be displayed on the display as a candidate of information to be input in the input field.
  • Computer, Display control means for displaying an input field of a search key on a display and displaying a search result on the display; Input accepting means for acquiring the input information input in the input field; Terminal side transmission means for transmitting the input information to the server; Terminal side receiving means for receiving the search result from the server; Input complementary data storage means for acquiring and storing, from the server, part or all of personal information correlating the feature of the appearance of the person extracted from the moving image stored in the server with the feature of the movement; A second search unit that searches the input complementary data storage unit using the input information as a key, and acquires the personal information including the input information; To act as The display control means is a program for causing at least a part of the personal information acquired by the second search means to be displayed on the display as a candidate of information to be input in the input field.
  • the computer is A server-side receiving step of receiving from the terminal device the input information input in the search key input field;
  • the search information storage means storing the personal information in which the feature of the appearance of the person extracted from the moving image is associated with the feature of the movement extracted from the moving image is searched using the input information as a key, and the personal information including the input information is acquired
  • Search information storage means for storing personal information in which the feature of the appearance of the person extracted from the moving image is associated with the feature of the movement, Server side receiving means for receiving from the terminal device the input information input in the search key input field; First search means for searching the search information storage means using the input information as a key, and acquiring the personal information including the input information; Server side transmission means for transmitting at least a part of the personal information acquired by the first search means as the search result to the terminal device; A program to function as

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

サーバ(20)は、動画から抽出された人物の外観の特徴と動きの特徴とを対応付けた人物情報を記憶し、端末装置(10)から受信した入力情報をキーとして人物情報を検索し、検索結果を端末装置(10)に返信する。端末装置(10)は、サーバ(20)に記憶されている人物情報の一部または全部をサーバ(20)から取得して記憶し、入力情報をキーとして検索し、検索結果を入力欄に入力される情報の候補としてディスプレイに表示させる。

Description

検索システム、サーバ、端末装置、サーバの動作方法、端末装置の動作方法及びプログラム
 本発明は、検索システム、サーバ、端末装置、サーバの動作方法、端末装置の動作方法及びプログラムに関する。
 特許文献1は、ユーザがディスプレイ画面に描いた図形の大まかな形状を入力し、画像やオブジェクトのデータベースからユーザが描いた図形の形状に類似するオブジェクトを抽出し、抽出したオブジェクトをユーザが描いた図形に対応する位置に配置し、図として背景画像等と合成することにより違和感のない1枚の画像に仕上げて出力する技術を開示している。
 非特許文献1は手書き画像に基づいた動画検索技術を開示している。当該技術では、入力欄において手書き画像の入力を受付けると、手書き画像に類似するシーンを検索し、出力する。また、手書きされた図形に類似する図形を入力候補として提示し、入力候補の中の1つが選択されると、入力欄における手書きされた図形を選択された図形に置き代える。
特開2011-2875号公報 国際公開第2014/109127号 特開2015-49574号公報
Claudiu Tanase、他7名、"Semantic Sketch-Based Video Retrieval with Auto completion"、[Online]、[平成29年9月5日検索]、インターネット<URL: https://iui.ku.edu.tr/sezgin_publications/2016/Sezgin-IUI-2016.pdf>
 非特許文献1に記載のような「画像のみをキーとしたシーン検索」の場合、検索結果を十分に絞り込むことができない場合がある。本発明は、所望のシーンを高精度に検索する技術を提供することを課題とする。
 本発明によれば、
 端末装置とサーバとを含み、
 前記端末装置は、
  検索キーの入力欄をディスプレイに表示させるとともに、検索結果を前記ディスプレイに表示させる表示制御手段と、
  前記入力欄に入力された入力情報を取得する入力受付手段と、
  前記入力情報を前記サーバに送信する端末側送信手段と、
  前記検索結果を前記サーバから受信する端末側受信手段と、
を有し、
 前記サーバは、
  動画から抽出された人物の外観の特徴と動きの特徴とを対応付けた人物情報を記憶する検索情報記憶手段と、
  前記入力情報を前記端末装置から受信するサーバ側受信手段と、
  前記入力情報をキーとして前記検索情報記憶手段を検索し、前記入力情報を含む前記人物情報を取得する第1の検索手段と、
  前記第1の検索手段により取得された前記人物情報の少なくとも一部を、前記検索結果として前記端末装置に送信するサーバ側送信手段と、
を有し、
 前記サーバまたは前記端末装置は、
  前記検索情報記憶手段に記憶されている前記人物情報の一部または全部を前記検索情報記憶手段から読み出して記憶する入力補完データ記憶手段と、
  前記入力情報をキーとして前記入力補完データ記憶手段を検索し、前記入力情報を含む前記人物情報を取得する第2の検索手段と、
を有し、
 前記表示制御手段は、前記第2の検索手段により取得された前記人物情報の少なくとも一部を、前記入力欄に入力される情報の候補として前記ディスプレイに表示させる検索システムが提供される。
 また、本発明によれば、
 検索キーの入力欄をディスプレイに表示させるとともに、検索結果を前記ディスプレイに表示させる表示制御手段と、
 前記入力欄に入力された入力情報を取得する入力受付手段と、
 前記入力情報をサーバに送信する端末側送信手段と、
 前記検索結果を前記サーバから受信する端末側受信手段と、
 前記サーバに記憶されている動画から抽出された人物の外観の特徴と動きの特徴とを対応付けた人物情報の一部または全部を前記サーバから取得して記憶する入力補完データ記憶手段と、
 前記入力情報をキーとして前記入力補完データ記憶手段を検索し、前記入力情報を含む前記人物情報を取得する第2の検索手段と、
を有し、
 前記表示制御手段は、前記第2の検索手段により取得された前記人物情報の少なくとも一部を、前記入力欄に入力される情報の候補として前記ディスプレイに表示させる端末装置が提供される。
 また、本発明によれば、
 動画から抽出された人物の外観の特徴と動きの特徴とを対応付けた人物情報を記憶する検索情報記憶手段と、
 検索キーの入力欄に入力された入力情報を端末装置から受信するサーバ側受信手段と、
 前記入力情報をキーとして前記検索情報記憶手段を検索し、前記入力情報を含む前記人物情報を取得する第1の検索手段と、
 前記第1の検索手段により取得された前記人物情報の少なくとも一部を、検索結果として前記端末装置に送信するサーバ側送信手段と、
を有するサーバが提供される。
 また、本発明によれば、
 コンピュータが、
 検索キーの入力欄をディスプレイに表示させるとともに、検索結果を前記ディスプレイに表示させる表示制御工程と、
 前記入力欄に入力された入力情報を取得する入力受付工程と、
 前記入力情報をサーバに送信する端末側送信工程と、
 前記検索結果を前記サーバから受信する端末側受信工程と、
 前記入力情報をキーとして、前記サーバに記憶されている動画から抽出された人物の外観の特徴と動きの特徴とを対応付けた人物情報の一部または全部を前記サーバから取得して記憶する入力補完データ記憶手段を検索し、前記入力情報を含む前記人物情報を取得する第2の検索工程と、
を実行し、
 前記表示制御工程では、前記第2の検索工程で取得された前記人物情報の少なくとも一部を、前記入力欄に入力される情報の候補として前記ディスプレイに表示させる端末装置の動作方法が提供される。
 また、本発明によれば、
 コンピュータを、
 検索キーの入力欄をディスプレイに表示させるとともに、検索結果を前記ディスプレイに表示させる表示制御手段、
 前記入力欄に入力された入力情報を取得する入力受付手段、
 前記入力情報をサーバに送信する端末側送信手段、
 前記検索結果を前記サーバから受信する端末側受信手段、
 前記サーバに記憶されている動画から抽出された人物の外観の特徴と動きの特徴とを対応付けた人物情報の一部または全部を前記サーバから取得して記憶する入力補完データ記憶手段、
 前記入力情報をキーとして前記入力補完データ記憶手段を検索し、前記入力情報を含む前記人物情報を取得する第2の検索手段、
として機能させ、
 前記表示制御手段は、前記第2の検索手段により取得された前記人物情報の少なくとも一部を、前記入力欄に入力される情報の候補として前記ディスプレイに表示させるプログラムが提供される。
 また、本発明によれば、
 コンピュータが、
 検索キーの入力欄に入力された入力情報を端末装置から受信するサーバ側受信工程と、
 前記入力情報をキーとして、動画から抽出された人物の外観の特徴と動きの特徴とを対応付けた人物情報を記憶する検索情報記憶手段を検索し、前記入力情報を含む前記人物情報を取得する第1の検索工程と、
 前記第1の検索工程で取得された前記人物情報の少なくとも一部を、検索結果として前記端末装置に送信するサーバ側送信工程と、
を実行するサーバの動作方法が提供される。
 また、本発明によれば、
 コンピュータを、
 動画から抽出された人物の外観の特徴と動きの特徴とを対応付けた人物情報を記憶する検索情報記憶手段、
 検索キーの入力欄に入力された入力情報を端末装置から受信するサーバ側受信手段、
 前記入力情報をキーとして前記検索情報記憶手段を検索し、前記入力情報を含む前記人物情報を取得する第1の検索手段、
 前記第1の検索手段により取得された前記人物情報の少なくとも一部を、検索結果として前記端末装置に送信するサーバ側送信手段、
として機能させるプログラムが提供される。
 本発明によれば、所望のシーンを高精度に検索することが可能となる。
 上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
本実施形態の検索システムの機能ブロック図の一例を示す図である。 本実施形態の装置のハードウエア構成の一例を示す図である。 本実施形態の検索システムの機能ブロック図の一例を示す図である。 本実施形態の人物情報の一例を模式的に示す図である。 本実施形態の人物情報の一例を模式的に示す図である。 本実施形態の端末装置のディスプレイに表示される情報の一例を模式的に示す図である。 本実施形態の端末装置のディスプレイに表示される情報の一例を模式的に示す図である。 本実施形態の端末装置のディスプレイに表示される情報の一例を模式的に示す図である。 本実施形態の端末装置のディスプレイに表示される情報の一例を模式的に示す図である。 本実施形態の端末装置のディスプレイに表示される情報の一例を模式的に示す図である。 本実施形態の検索システムの処理の流れの一例を示すフローチャートである。 本実施形態の検索システムの処理の流れの一例を示すフローチャートである。 本実施形態の検索システムの機能ブロック図の一例を示す図である。 本実施形態の人物情報の生成方法の一例を説明するための図である。
<第1の実施形態>
 まず、本実施形態の検索システムの概要を説明する。本実施形態の検索システムは、動画から抽出された人物の外観の特徴と動きの特徴とを対応付けた人物情報を記憶手段に記憶しておく。そして、人物の外観の特徴及び動きの特徴をキーとして記憶手段を検索し、所定の外観や動きの特徴を備える人物を動画から抽出したり、所定の外観や動きの特徴を備える人物が写るシーンを抽出したりできる。人物の外観の特徴のみならず、人物の動きをキーとして動画を検索できる本実施形態の検索システムによれば、検索結果を十分に絞り込むことができ、高精度な検索が実現できる。
 次に、本実施形態の検索システムの構成を詳細に説明する。図1の機能ブロック図に示すように、本実施形態の検索システムは、端末装置10とサーバ20とを有する。端末装置10とサーバ20とは、有線及び/又は無線で互いに通信可能に構成される。端末装置10とサーバ20は、例えば有線及び/又は無線で直接(他の装置を介さずに)通信してもよい。その他、端末装置10とサーバ20は、例えば有線及び/又は無線で公共及び/又はプライベートな通信ネットワークを介して(他の装置を介して)通信してもよい。
 まず、端末装置10及びサーバ20のハードウエア構成の一例について説明する。本実施形態の端末装置10及びサーバ20が備える各部は、任意のコンピュータのCPU(Central Processing Unit)、メモリ、メモリにロードされるプログラム、そのプログラムを格納するハードディスク等の記憶ユニット(あらかじめ装置を出荷する段階から格納されているプログラムのほか、CD(Compact Disc)等の記憶媒体やインターネット上のサーバ等からダウンロードされたプログラムをも格納できる)、ネットワーク接続用インターフェイスを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。
 図2は、本実施形態の端末装置10及びサーバ20のハードウエア構成を例示するブロック図である。図2に示すように、端末装置10及びサーバ20各々は、プロセッサ1A、メモリ2A、入出力インターフェイス3A、周辺回路4A、バス5Aを有する。周辺回路4Aには、様々なモジュールが含まれる。なお、周辺回路4Aを有さなくてもよい。
 バス5Aは、プロセッサ1A、メモリ2A、周辺回路4A及び入出力インターフェイス3Aが相互にデータを送受信するためのデータ伝送路である。プロセッサ1Aは、例えばCPU(Central Processing Unit) やGPU(Graphics Processing Unit)などの演算処理装置である。メモリ2Aは、例えばRAM(Random Access Memory)やROM(Read Only Memory)などのメモリである。入出力インターフェイス3Aは、入力装置(例:キーボード、マウス、マイク等)、外部装置、外部サーバ、外部センサー等から情報を取得するためのインターフェイスや、出力装置(例:ディスプレイ、スピーカ、プリンター、メーラ等)、外部装置、外部サーバ等に情報を出力するためのインターフェイスなどを含む。プロセッサ1Aは、各モジュールに指令を出し、それらの演算結果をもとに演算を行うことができる。
 次に、端末装置10及びサーバ20各々の機能構成を説明する。まず、各装置が備える機能の概要を説明する。
 サーバ20は、検索機能を有する。すなわち、サーバ20は、動画から抽出された人物の外観の特徴と動きの特徴とを対応付けた人物情報を記憶し、端末装置10から受信した入力情報をキーとして人物情報を検索し、検索結果を端末装置10に返信する機能を有する。
 端末装置10は、入出力機能を有する。すなわち、端末装置10は、ディスプレイに表示した入力欄への入力を受付け、入力された入力情報をサーバ20に送信するとともに検索結果をサーバ20から受信し、受信した検索結果をディスプレイに表示する機能(入出力機能)を有する。
 また、端末装置10は、入力欄への入力を補助する入力補完機能を有する。すなわち、端末装置10は、入力欄への入力を補完する入力補完情報を記憶し、入力欄に入力された入力情報をキーとして入力補完情報を検索し、抽出した入力補完情報を、入力欄に入力する情報の候補としてディスプレイに表示する機能を有する。候補の中のいずれかが選択されると、選択された候補が入力情報として入力欄に入力される。
 以下、端末装置10及びサーバ20各々の上記機能を詳細に説明する。図3に、端末装置10及びサーバ20各々の機能ブロック図の一例を示す。図示するように、サーバ20は、サーバ側送信部21と、サーバ側受信部22と、検索情報記憶部23と、第1の検索部24とを有する。そして、端末装置10は、表示制御部11と、入力受付部12と、端末側送信部13と、端末側受信部14と、入力補完データ記憶部15と、第2の検索部16とを有する。
 サーバ20の上記検索機能は、サーバ側送信部21、サーバ側受信部22、検索情報記憶部23及び第1の検索部24により実現される。
 検索情報記憶部23は、動画から抽出された人物の外観の特徴と動きの特徴とを対応付けた人物情報を記憶する。検索情報記憶部23は、不揮発性の記憶装置(例:HDD(hard disk drive))である。サーバ側受信部22は、検索キーの入力欄に入力された入力情報を端末装置から受信する。第1の検索部24は、入力情報をキーとして検索情報記憶部23を検索し、入力情報を含む人物情報を取得する。サーバ側送信部21は、第1の検索部24により取得された人物情報の少なくとも一部を、検索結果として端末装置10に送信する。
 端末装置10の上記入出力機能は、表示制御部11、入力受付部12、端末側送信部13及び端末側受信部14により実現される。
 表示制御部11は、検索キーの入力欄をディスプレイに表示させる。入力受付部12は、検索キーの入力欄に入力された入力情報を取得する。端末側送信部13は、入力情報をサーバ20に送信する。端末側受信部14は、検索結果をサーバから受信する。表示制御部11は、サーバ20から送信されてきた検索結果をディスプレイに表示させる。
 端末装置10の上記入力補完機能は、表示制御部11、入力受付部12、入力補完データ記憶部15及び第2の検索部16により実現される。
 入力補完データ記憶部15は、検索情報記憶部23に記憶されている人物情報の一部または全部を検索情報記憶部23から読み出して記憶する。入力補完データ記憶部15は、揮発性の記憶装置(例:RAM)である。第2の検索部16は、入力情報をキーとして入力補完データ記憶部15を検索し、入力情報を含む人物情報を取得する。表示制御部11は、第2の検索部16により取得された人物情報の少なくとも一部を、入力欄に入力される情報の候補としてディスプレイに表示させる。なお、入力補完データ記憶部15に記憶されている情報が、上述した入力補完情報である。
 以下、具体例を用いて検索システムを詳細に説明する。
 まず、検索情報記憶部23に記憶される情報を詳細に説明する。図4に、人物情報の一例を模式的に示す。図示する人物情報は、動画から抽出された人物に付与される人物ID(identifier)と、その人物の外観の特徴と、その人物の動きの特徴とを互いに対応付けている。
 人物の外観の特徴は、顔の特徴、性別、年齢層、国籍、体型、身に着けている物の特徴、持ち物の特徴等が例示されるがこれらに限定されない。顔の特徴は、例えば顔のパーツ等を用いて表現することができるが、その詳細は制限されない。身に着けている物の特徴は、例えば、青いキャップ、黒いズボン、白いスカート、黒いハイヒール等のように、種類、色、柄、形等で表現される。持ち物の特徴は、例えば、黒い鞄、赤い傘、迷彩柄のリュックサック等のように、種類、色、柄、形等で表現される。
 動きの特徴は、走っている、歩いている、静止している、上を見上げている、ベンチに座っている、移動軌跡の特徴等が例示されるがこれらに限定されない。移動軌跡の特徴は、例えば、所定の対象(例:ベンチ)の方に向かって移動している等のように、画像に写っている物との相対的な関係(例:近づいている、遠ざかっている)で表現されてもよい。
 図5に、人物情報の他の一例を模式的に示す。図示する人物情報は、動画から抽出された人物に付与される人物ID(identifier)と、その人物の外観の特徴と、その人物の動きの特徴と、その人物の背景の特徴とを互いに対応付けている。背景の特徴は、人込み、ビル群、駅、公園、ベンチ、コンビニエンスストア等のように、抽出された人物の背景に写っている物等で表現される。
 なお、図示しないが、人物情報は、各人物が各動きをした様子を含む動画ファイルを特定する情報(例:ファイル名)及びそのシーンを特定する情報(例:動画ファイルの冒頭からの時間)をさらに含んでもよい。また、人物情報は、各人物が各動きをしたシーンの静止画像をさらに含んでもよい。
 上述のような人物情報は、動画に基づき生成される。動画は、街角に設置された監視装置により撮影された動画であってもよいし、ユーザが自身の撮影装置を用いて撮影した動画であってもよい。動画に基づき人物情報を生成する手段は、以下の実施形態で一例を説明するが、本実施形態では特段制限されない。
 なお、検索情報記憶部23は、複数の図形のテンプレートをさらに記憶してもよい。そして、入力補完データ記憶部15は、当該図形のテンプレートをさらに検索情報記憶部23から読み出して、記憶してもよい。当該テンプレートの利用方法は以下で説明する。
 次に、入力受付部12が受付けることのできる入力情報の種類を例示し、各種情報を受け付けた際の各機能部の処理の具体例を説明する。
「例1」
 入力受付部12は、人物の外観の特徴及び動きの特徴を示す入力情報を取得する。また、入力受付部12は、人物の背景の特徴を示す入力情報を取得することができる。
 図6に、表示制御部11がディスプレイに表示させた入力欄の一例を示す。入力受付部12は、図示するような入力欄において、テキストの直接入力で検索キーの入力を受付けることができる。例えば、入力受付部12は、顔の特徴、性別、年齢層、国籍、体型、身に着けている物の特徴、持ち物の特徴、動きの特徴、背景の特徴等の入力を受付けてもよい。
 なお、入力受付部12は、複数のワードの入力を一度に受付けることができてもよい。この場合、所定のルールに従い複数のワードを入力することで、複数のワードを所定の演算子で組み合わせた検索式の入力ができてもよい。例えば、and、or、not等の文字により演算子が指定されてもよい。一例として、「男and50代and黒いズボンand走る」等が例示される。この場合、「黒いズボンをはいて、走っている50代の男性」が検索対象となり、このような人物やこのような人物が写るシーンが抽出される。
 また、所定のルールに従いワードを入力することで、各ワードがどの種類の特徴を示すものかを指定して入力できてもよい。例えば、「sex:」の後に記載したワードは性別、「age:」の後に記載したワードは年令層、「move:」の後に記載したワードは動きの特徴等のように、ワードの前に付す文字や文言で特徴の種類が指定されてもよい。一例として、「sex:男 and age:50代 and move:走る」等が例示される。
 その他、表示制御部11は、各種特徴に対応してドロップダウンリストやチェックボックス等のGUI(graphical user interface)部品をディスプレイに表示させ、入力受付部12は当該GUI部品を介して検索キーの入力を受付けてもよい。
 このような入力情報が得られた場合、第1の検索部24は検索情報記憶部23を検索し、入力情報を含む人物情報を抽出する。そして、表示制御部11は、抽出した人物の一覧を検索結果としてディスプレイに表示させる。
 図7に、ディスプレイに表示された画面の一例を示す。画面の左上には入力欄が表示されている。そして、画面の右半分には第1の検索部24による検索結果が示されている。
 図示する例では、第1の検索部24により抽出された人物情報各々に対応した人物が各々に対応した動きをしているシーンの一覧が検索結果として表示されている。いずれか1つを選択されると、そのシーンを含む動画の再生が開始されてもよい。
 また、上述のような入力情報が得られた場合、第2の検索部16は入力補完データ記憶部15を検索し、入力情報を含む人物情報を抽出する。そして、表示制御部11は、抽出した人物情報に含まれる特徴を、入力欄に入力される情報の候補としてディスプレイに表示させることができる。
 入力される情報の候補として表示させる特徴は、検索式に含まれない種類の特徴であってもよい。例えば、検索式が「男and50代and黒いズボンand走る」の場合、これらと異なる種類の特徴である顔の特徴、国籍、体型、持ち物の特徴、背景の特徴等が第2の検索部16により抽出された人物情報から抽出され、入力欄に入力される情報の候補としてディスプレイに表示されてもよい。図7の画面例の場合、入力欄の下に、入力欄に入力される情報の候補が選択可能に一覧表示される。
 そして、表示された候補の中からいずれかが選択されると、そのワードが入力欄に表示されてもよい。例えば、入力欄に「男and50代and黒いズボンand走る」が表示されている状態で、入力欄に入力される情報の候補として「ビル群、人込み、・・・」等の背景の特徴が表示され、その中から「ビル群」が選択されたとする。この場合、当該選択に応じて、入力欄の表示は「男and50代and黒いズボンand走るandビル群」に変化してもよい。そして、当該変化に応じて、例えば第1の検索部24及び第2の検索部16は新たな検索式を用いた検索を再実行し、第1の検索部24による検索結果の表示や、入力欄に入力される情報の候補の表示が切り替わってもよい。
「例2」
 その他、入力受付部12は、画像の入力を受付けてもよい。画像は、例えば人物の外観の特徴や背景の特徴を示す。例えば、ユーザは、探したい人物、探したい人物に外観の特徴が似ている人物、探したい人物の背景、探したい人物の背景に似ている背景等が写っている画像ファイルを入力することができる。
 その他、入力受付部12は、入力欄において画像を手書きする入力を受付けてもよい。例えば、図6に示す入力欄におけるアイコンAに対する操作を受付けると、表示制御部11は、図8に示すように画像を手書きする入力欄をディスプレイに表示させてもよい。そして、当該入力欄においては、図9や図10に示すように手書きで図形等を描けてもよい。
 この場合、第2の検索部16は、手書きされた図形をキーとして、入力補完データ記憶部15に記憶されている複数の図形のテンプレートを検索し、所定レベル以上類似する図形を抽出してもよい。そして、表示制御部11は、第2の検索部16により抽出された図形を、入力欄に入力される情報の候補としてディスプレイに一覧表示させてもよい。この場合、候補の中からいずれかが選択されると、入力欄に表示されていた手書きの図形が、選択された図形に置き換わる。なお、第2の検索部16による検索、表示制御部11による候補の表示を実行するタイミングは設計的事項であり、図形を描いている最中に、随時、その時点で入力欄に描かれている図形を入力情報として、検索、候補の表示を実行してもよい。
 当該例の場合、入力受付部12は、例1と同様の手段で動きの特徴の入力を受付けてもよい。すなわち、入力受付部12は、入力欄におけるテキストの直接入力で動きの特徴の入力を受付けてもよい。
 その他、入力受付部12は、入力欄に表示されている画像(図形)に対する所定の操作を受付けることで、動きの特徴の入力を受付けてもよい。例えば、図10に示すように入力欄に人物及びベンチ(背景)が表示されている状態で、人物をドラッグしベンチのほうに移動させてドロップするドラッグ&ドロップ操作を受付けると、「ベンチの方に向かって移動」する動きの特徴が入力されてもよい。
 この場合、第2の検索部16は、その時点で入力欄に入力されている入力情報(画像、ワード等)をキーとして入力補完データ記憶部15を検索し、入力情報を含む人物情報を抽出する。そして、表示制御部11は、抽出した人物情報に含まれる動きの特徴に対応した入力操作(上述したドラッグ&ドロップ操作等)の案内をディスプレイに表示させてもよい。例えば、図10に示す入力欄の人物からベンチに向かう矢印を入力欄に表示することで、人物をドラッグしベンチのほうに移動させてドロップするドラッグ&ドロップ操作の案内を行ってもよい。
 その他、例えば入力欄に表示されている人物に対する所定の操作(例:アイコンを画像上において右クリック)を受付けると、表示制御部11は、動きの特徴を選択するためのドロップダウンリストやチェックボックス等のGUI部品をディスプレイに表示させてもよい。そして、入力受付部12は、当該GUI部品から、動きの特徴を選択する入力を受付けてもよい。
 この場合、第2の検索部16は、その時点で入力欄に入力されている入力情報(画像、ワード等)をキーとして入力補完データ記憶部15を検索し、入力情報を含む人物情報を抽出する。そして、表示制御部11は、抽出した人物情報に含まれる動きの特徴を選択肢として含むドロップダウンリストやチェックボックス等のGUI部品を表示させる。なお、画像をキーとした検索においては、入力情報の画像と所定レベル以上類似する人物情報が抽出されてもよい。例えば、人物情報に含まれる「各人物が各動きをしたシーンの静止画像」における人物の外観と、入力情報の人物の画像との類似度が判断され、入力情報の画像と所定レベル以上類似する人物を含む静止画像に対応した人物情報が抽出されてもよい。その他、人物情報に含まれる「各人物が各動きをしたシーンの静止画像」における人物の背景と、入力情報の背景の画像(例:図10のベンチ)との類似度が判断され、入力情報の画像と所定レベル以上類似する箇所を背景に含む静止画像(例:図10のベンチと所定レベル以上類似するベンチを背景に含む静止画像)に対応した人物情報が抽出されてもよい。
 第1の検索部24は、例1と同様にして、入力欄に入力された入力情報をキーとして検索情報記憶部23を検索し、入力情報を含む人物情報を抽出することができる。そして、表示制御部11は、抽出した人物情報の一覧を検索結果としてディスプレイに表示させることができる。また、第2の検索部16は、例1と同様にして、入力欄に入力された入力情報をキーとして入力補完データ記憶部15を検索し、入力情報を含む人物情報を抽出することができる。
 次に、図11を用いて、入力補完データを表示する処理の流れの一例を説明する。
 入力欄に入力情報が入力されると(S10のYes)、第2の検索部16は入力補完データ記憶部15を検索する(S11)。そして、表示制御部11は、第2の検索部16による検索結果に基づき、入力欄に入力される情報の候補をディスプレイに表示させる(S12)。
 その後、入力欄に入力されている入力情報が変更されると(S13のYes)、S11及びS12の処理を繰り返す。
 次に、図12を用いて、サーバ20の検索処理の流れの一例を説明する。
 サーバ側受信部22が端末装置10から入力情報を取得すると(S20のYes)、第1の検索部24は検索情報記憶部23を検索する(S21)。そして、サーバ側送信部21は、検索結果を端末装置10に送信する(S22)。
 以上説明した本実施形態の検索システムは、人物の外観の特徴及び動きの特徴をキーとして検索し、動画の中から所定の特徴(外観の特徴及び動きの特徴)を備える人物を抽出したり、所定の特徴を備える人物が写るシーンを抽出したりできる。人物の外観の特徴のみならず、動きをキーとして動画を検索できる本実施形態の検索システムによれば、検索結果を十分に絞り込むことができ、高精度な検索が実現できる。
 また、本実施形態の検索システムによれば、ユーザは検索キーとして画像を入力することができる。頭にイメージしている人物の外観や背景の特徴を文字に変換することが苦手なユーザにとって、当該入力手段は利便性の高いものとなる。
 また、本実施形態の検索システムによれば、検索情報記憶部23に記憶されている人物情報の一部または全部を入力補完データ記憶部15に記憶させ、入力補完データ記憶部15に記憶させている人物情報、及び、それまでに入力欄に入力されている情報に基づき入力欄に入力される情報の候補を決定し、ユーザに提供することができる。このような本実施形態の検索システムによれば、ユーザの入力の補助を行うことができる。また、検索情報記憶部23に記憶されている人物情報に基づき入力される情報の候補を決定するので、当該情報は検索結果の絞り込みに有益な情報となる。
<第2の実施形態>
 図13に、本実施形態の検索システムの機能ブロック図の一例を示す。本実施形態は、サーバ20が入力補完データ記憶部15及び第2の検索部16を有し、端末装置10が入力補完データ記憶部15及び第2の検索部16を有さない点で、第1の実施形態と異なる。
 本実施形態では、端末装置10は、第2の検索部16による検索に用いる情報をサーバ20に送信し、サーバ20から第2の検索部16の検索結果を取得する。
 本実施形態の検索システムによれば、第1の実施形態の検索システムと同様の作用効果を実現できる。
<第3の実施形態>
 本実施形態では、検索情報記憶部23に記憶される人物情報の作成方法の一例を提供する。以下の処理はサーバ20が行ってもよいし、サーバ20と異なる装置が行ってもよい。
 まず、複数のフレーム各々から人物を抽出する。そして、あるフレームから抽出された人物と、それ以前のフレームから抽出された人物とが同一人物であるか判断し、同じ人物同士をグループ化する。それ以前のフレームから抽出されたすべての人物各々の外観の特徴と、あるフレームから抽出されたすべての人物各々の外観の特徴とのすべてのペアを比較することで、上記判断を行ってもよい。しかし、この処理の場合、蓄積された人物のデータが増えるほど、比較するペアの数が膨大となり、処理負担が大きくなる。そこで、例えば、次のような方法を採用してもよい。
 例えば、抽出された人物を図14のようにインデックス化し、当該インデックスを用いて、それ以前に抽出された人物と同一人物か否かの判定を行ってもよい。当該インデックスを用いることで、処理速度を高速化できる。当該インデックスの詳細及び生成方法は、特許文献2及び3に開示されているが、以下、簡単に説明する。
 図14に示す抽出ID(identifier):「F○○○-○○○○」は、各フレームから抽出された人物各々に付される識別情報である。F○○○がフレーム識別情報であり、ハイフン以下が各フレームから抽出された人物各々の識別情報である。同一人物が異なるフレームから抽出された場合、各々に異なる抽出IDが付されることとなる。
 第3層には、それまでに処理されたフレームから得られた全ての抽出ID各々に対応したノードが配置される。そして、第3層に配置された複数のノードは、類似度(外観の特徴量の類似度)が第1のレベル以上のもの同士でまとめてグループ化される。第3層では、同一人物に関すると判断される複数の抽出IDどうしでグループ化されている。すなわち、上記類似度の第1のレベルは、このようなグループ化を実現可能とする値に設定されている。このような第3層の各グループに対応して、人物識別情報(人物ID)が付される。
 第2層には、第3層の複数のグループ各々から選択された1つのノード(代表)が配置され、第3層の当該グループと紐付けられる。第2層に配置された複数のノードは、類似度が第2のレベル以上のもの同士でまとめてグループ化される。なお、類似度の第2のレベルは、上記第1のレベルよりも低い。すなわち、第1のレベルを基準にした場合にはグループ化されないノード同士が、第2のレベルを基準にした場合にはグループ化され得る。
 第1層には、第2層の複数のグループ各々から選択された1つのノード(代表)が配置され、第2層の当該グループと紐付けられる。
 新たなフレームから新たな抽出IDが得られた場合、まず、第1層に位置する複数の抽出IDを比較対象とする。すなわち、新たな抽出IDと、第1層に位置する複数の抽出ID各々とでペアを作成する。そして、ペア毎に類似度(外観の特徴量の類似度)を算出し、算出した類似度が第1の閾値以上(所定レベル以上類似)であるか判定する。
 第1層に、類似度が第1の閾値以上である抽出IDが存在しない場合、新たな抽出IDに対応する人物は、それ以前に抽出された人物と同一人物でないと判断する。そして、新たな抽出IDを第1層乃至第3層に追加し、それらを互いに紐付ける。第2層及び第3層においては、追加された新たな抽出IDにより新たなグループが生成される。また、第3層の新たなグループに対応して新たな人物IDが発行される。そして、その人物IDを、新たな抽出IDに対応する人物の人物IDとして特定する。
 一方、第1層に、類似度が第1の閾値以上である抽出IDが存在する場合、比較対象を第2層に移す。具体的には、「類似度が第1の閾値以上であると判定された第1層の抽出ID」に紐付けられた第2層のグループを、比較対象とする。
 そして、新たな抽出IDと、第2層の処理対象のグループに含まれる複数の抽出ID各々とでペアを作成する。次いで、ペア毎に類似度を算出し、算出した類似度が第2の閾値以上であるか判定する。なお、第2の閾値は、第1の閾値よりも高い。
 第2層の処理対象のグループに、類似度が第2の閾値以上である抽出IDが存在しない場合、新たな抽出IDに対応する人物は、それ以前に抽出された人物と同一人物でないと判断する。そして、新たな抽出IDを第2層及び第3層に追加し、互いに紐付ける。第2層においては、新たな抽出IDは処理対象のグループに追加される。第3層においては、追加された新たな抽出IDにより新たなグループが生成される。また、第3層の新たなグループに対応して新たな人物IDが発行される。そして、その人物IDを、新たな抽出IDに対応する人物の人物IDとして特定する。
 一方、第2層の処理対象のグループに、類似度が第2の閾値以上である抽出IDが存在する場合、新たな抽出IDに対応する人物は、それ以前に抽出された人物と同一人物であると判断する。そして、新たな抽出IDを、「類似度が第2の閾値以上であると判定された第2層の抽出ID」に紐付けられた第3層のグループに属させる。また、第3層のそのグループに対応する人物IDを、新たな抽出IDに対応する人物の人物IDとして特定する。
 例えば、以上のようにして、新たなフレームから抽出された1つ又は複数の抽出IDを図14のインデックスに追加し、各々に人物IDを対応付けることができる。
 各人物の外観の特徴、動きの特徴及び背景の特徴は、コンピュータによる処理で生成されてもよいし、人間が動画を視認して各種特徴を判断し、コンピュータに入力してもよい。コンピュータによる処理の場合、あらゆる技術を利用して実現できる。
 本実施形態の検索システムによれば、第1及び第2の実施形態と同様の作用効果を実現できる。
 以下、参考形態の例を付記する。
1.  端末装置とサーバとを含み、
 前記端末装置は、
  検索キーの入力欄をディスプレイに表示させるとともに、検索結果を前記ディスプレイに表示させる表示制御手段と、
  前記入力欄に入力された入力情報を取得する入力受付手段と、
  前記入力情報を前記サーバに送信する端末側送信手段と、
  前記検索結果を前記サーバから受信する端末側受信手段と、
を有し、
 前記サーバは、
  動画から抽出された人物の外観の特徴と動きの特徴とを対応付けた人物情報を記憶する検索情報記憶手段と、
  前記入力情報を前記端末装置から受信するサーバ側受信手段と、
  前記入力情報をキーとして前記検索情報記憶手段を検索し、前記入力情報を含む前記人物情報を取得する第1の検索手段と、
  前記第1の検索手段により取得された前記人物情報の少なくとも一部を、前記検索結果として前記端末装置に送信するサーバ側送信手段と、
を有し、
 前記サーバまたは前記端末装置は、
  前記検索情報記憶手段に記憶されている前記人物情報の一部または全部を前記検索情報記憶手段から読み出して記憶する入力補完データ記憶手段と、
  前記入力情報をキーとして前記入力補完データ記憶手段を検索し、前記入力情報を含む前記人物情報を取得する第2の検索手段と、
を有し、
 前記表示制御手段は、前記第2の検索手段により取得された前記人物情報の少なくとも一部を、前記入力欄に入力される情報の候補として前記ディスプレイに表示させる検索システム。
2. 1に記載の検索システムにおいて、
 前記入力受付手段は、人物の外観の特徴及び動きの特徴を示す前記入力情報を取得する検索システム。
3. 2に記載の検索システムにおいて、
 前記入力受付手段は、人物の外観の特徴を示す前記入力情報として、画像を取得する検索システム。
4. 1から3のいずれかに記載の検索システムにおいて、
 前記人物情報は、背景の特徴をさらに含む検索システム。
5. 4に記載の検索システムにおいて、
 前記入力受付手段は、背景の特徴を示す前記入力情報を取得する検索システム。
6. 5に記載の検索システムにおいて、
 前記入力受付手段は、背景の特徴を示す前記入力情報として、画像を取得する検索システム。
7. 3又は6に記載の検索システムにおいて、
 前記入力受付手段は、前記入力欄に手書き入力された前記画像を取得する検索システム。
8. 1から7のいずれかに記載の検索システムにおいて、
 前記人物情報は、各人物が各動きを行った様子を示す画像データをさらに含む検索システム。
9. 検索キーの入力欄をディスプレイに表示させるとともに、検索結果を前記ディスプレイに表示させる表示制御手段と、
 前記入力欄に入力された入力情報を取得する入力受付手段と、
 前記入力情報をサーバに送信する端末側送信手段と、
 前記検索結果を前記サーバから受信する端末側受信手段と、
 前記サーバに記憶されている動画から抽出された人物の外観の特徴と動きの特徴とを対応付けた人物情報の一部または全部を前記サーバから取得して記憶する入力補完データ記憶手段と、
 前記入力情報をキーとして前記入力補完データ記憶手段を検索し、前記入力情報を含む前記人物情報を取得する第2の検索手段と、
を有し、
 前記表示制御手段は、前記第2の検索手段により取得された前記人物情報の少なくとも一部を、前記入力欄に入力される情報の候補として前記ディスプレイに表示させる端末装置。
10. 動画から抽出された人物の外観の特徴と動きの特徴とを対応付けた人物情報を記憶する検索情報記憶手段と、
 検索キーの入力欄に入力された入力情報を端末装置から受信するサーバ側受信手段と、
 前記入力情報をキーとして前記検索情報記憶手段を検索し、前記入力情報を含む前記人物情報を取得する第1の検索手段と、
 前記第1の検索手段により取得された前記人物情報の少なくとも一部を、検索結果として前記端末装置に送信するサーバ側送信手段と、
を有するサーバ。
11. 10に記載のサーバにおいて、
 前記検索情報記憶手段に記憶されている前記人物情報の一部または全部を前記検索情報記憶手段から読み出して記憶する入力補完データ記憶手段と、
 前記入力情報をキーとして前記入力補完データ記憶手段を検索し、前記入力情報を含む前記人物情報を取得する第2の検索手段と、
をさらに有するサーバ。
12. コンピュータが、
 検索キーの入力欄をディスプレイに表示させるとともに、検索結果を前記ディスプレイに表示させる表示制御工程と、
 前記入力欄に入力された入力情報を取得する入力受付工程と、
 前記入力情報をサーバに送信する端末側送信工程と、
 前記検索結果を前記サーバから受信する端末側受信工程と、
 前記入力情報をキーとして、前記サーバに記憶されている動画から抽出された人物の外観の特徴と動きの特徴とを対応付けた人物情報の一部または全部を前記サーバから取得して記憶する入力補完データ記憶手段を検索し、前記入力情報を含む前記人物情報を取得する第2の検索工程と、
を実行し、
 前記表示制御工程では、前記第2の検索工程で取得された前記人物情報の少なくとも一部を、前記入力欄に入力される情報の候補として前記ディスプレイに表示させる端末装置の動作方法。
13. コンピュータを、
 検索キーの入力欄をディスプレイに表示させるとともに、検索結果を前記ディスプレイに表示させる表示制御手段、
 前記入力欄に入力された入力情報を取得する入力受付手段、
 前記入力情報をサーバに送信する端末側送信手段、
 前記検索結果を前記サーバから受信する端末側受信手段、
 前記サーバに記憶されている動画から抽出された人物の外観の特徴と動きの特徴とを対応付けた人物情報の一部または全部を前記サーバから取得して記憶する入力補完データ記憶手段、
 前記入力情報をキーとして前記入力補完データ記憶手段を検索し、前記入力情報を含む前記人物情報を取得する第2の検索手段、
として機能させ、
 前記表示制御手段は、前記第2の検索手段により取得された前記人物情報の少なくとも一部を、前記入力欄に入力される情報の候補として前記ディスプレイに表示させるプログラム。
14. コンピュータが、
 検索キーの入力欄に入力された入力情報を端末装置から受信するサーバ側受信工程と、
 前記入力情報をキーとして、動画から抽出された人物の外観の特徴と動きの特徴とを対応付けた人物情報を記憶する検索情報記憶手段を検索し、前記入力情報を含む前記人物情報を取得する第1の検索工程と、
 前記第1の検索工程で取得された前記人物情報の少なくとも一部を、検索結果として前記端末装置に送信するサーバ側送信工程と、
を実行するサーバの動作方法。
15. コンピュータを、
 動画から抽出された人物の外観の特徴と動きの特徴とを対応付けた人物情報を記憶する検索情報記憶手段、
 検索キーの入力欄に入力された入力情報を端末装置から受信するサーバ側受信手段、
 前記入力情報をキーとして前記検索情報記憶手段を検索し、前記入力情報を含む前記人物情報を取得する第1の検索手段、
 前記第1の検索手段により取得された前記人物情報の少なくとも一部を、検索結果として前記端末装置に送信するサーバ側送信手段、
として機能させるプログラム。
 この出願は、2017年11月29日に出願された日本出願特願2017-228772号を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (15)

  1.  端末装置とサーバとを含み、
     前記端末装置は、
      検索キーの入力欄をディスプレイに表示させるとともに、検索結果を前記ディスプレイに表示させる表示制御手段と、
      前記入力欄に入力された入力情報を取得する入力受付手段と、
      前記入力情報を前記サーバに送信する端末側送信手段と、
      前記検索結果を前記サーバから受信する端末側受信手段と、
    を有し、
     前記サーバは、
      動画から抽出された人物の外観の特徴と動きの特徴とを対応付けた人物情報を記憶する検索情報記憶手段と、
      前記入力情報を前記端末装置から受信するサーバ側受信手段と、
      前記入力情報をキーとして前記検索情報記憶手段を検索し、前記入力情報を含む前記人物情報を取得する第1の検索手段と、
      前記第1の検索手段により取得された前記人物情報の少なくとも一部を、前記検索結果として前記端末装置に送信するサーバ側送信手段と、
    を有し、
     前記サーバまたは前記端末装置は、
      前記検索情報記憶手段に記憶されている前記人物情報の一部または全部を前記検索情報記憶手段から読み出して記憶する入力補完データ記憶手段と、
      前記入力情報をキーとして前記入力補完データ記憶手段を検索し、前記入力情報を含む前記人物情報を取得する第2の検索手段と、
    を有し、
     前記表示制御手段は、前記第2の検索手段により取得された前記人物情報の少なくとも一部を、前記入力欄に入力される情報の候補として前記ディスプレイに表示させる検索システム。
  2.  請求項1に記載の検索システムにおいて、
     前記入力受付手段は、人物の外観の特徴及び動きの特徴を示す前記入力情報を取得する検索システム。
  3.  請求項2に記載の検索システムにおいて、
     前記入力受付手段は、人物の外観の特徴を示す前記入力情報として、画像を取得する検索システム。
  4.  請求項1から3のいずれか1項に記載の検索システムにおいて、
     前記人物情報は、背景の特徴をさらに含む検索システム。
  5.  請求項4に記載の検索システムにおいて、
     前記入力受付手段は、背景の特徴を示す前記入力情報を取得する検索システム。
  6.  請求項5に記載の検索システムにおいて、
     前記入力受付手段は、背景の特徴を示す前記入力情報として、画像を取得する検索システム。
  7.  請求項3又は6に記載の検索システムにおいて、
     前記入力受付手段は、前記入力欄に手書き入力された前記画像を取得する検索システム。
  8.  請求項1から7のいずれか1項に記載の検索システムにおいて、
     前記人物情報は、各人物が各動きを行った様子を示す画像データをさらに含む検索システム。
  9.  検索キーの入力欄をディスプレイに表示させるとともに、検索結果を前記ディスプレイに表示させる表示制御手段と、
     前記入力欄に入力された入力情報を取得する入力受付手段と、
     前記入力情報をサーバに送信する端末側送信手段と、
     前記検索結果を前記サーバから受信する端末側受信手段と、
     前記サーバに記憶されている動画から抽出された人物の外観の特徴と動きの特徴とを対応付けた人物情報の一部または全部を前記サーバから取得して記憶する入力補完データ記憶手段と、
     前記入力情報をキーとして前記入力補完データ記憶手段を検索し、前記入力情報を含む前記人物情報を取得する第2の検索手段と、
    を有し、
     前記表示制御手段は、前記第2の検索手段により取得された前記人物情報の少なくとも一部を、前記入力欄に入力される情報の候補として前記ディスプレイに表示させる端末装置。
  10.  動画から抽出された人物の外観の特徴と動きの特徴とを対応付けた人物情報を記憶する検索情報記憶手段と、
     検索キーの入力欄に入力された入力情報を端末装置から受信するサーバ側受信手段と、
     前記入力情報をキーとして前記検索情報記憶手段を検索し、前記入力情報を含む前記人物情報を取得する第1の検索手段と、
     前記第1の検索手段により取得された前記人物情報の少なくとも一部を、検索結果として前記端末装置に送信するサーバ側送信手段と、
    を有するサーバ。
  11.  請求項10に記載のサーバにおいて、
     前記検索情報記憶手段に記憶されている前記人物情報の一部または全部を前記検索情報記憶手段から読み出して記憶する入力補完データ記憶手段と、
     前記入力情報をキーとして前記入力補完データ記憶手段を検索し、前記入力情報を含む前記人物情報を取得する第2の検索手段と、
    をさらに有するサーバ。
  12.  コンピュータが、
     検索キーの入力欄をディスプレイに表示させるとともに、検索結果を前記ディスプレイに表示させる表示制御工程と、
     前記入力欄に入力された入力情報を取得する入力受付工程と、
     前記入力情報をサーバに送信する端末側送信工程と、
     前記検索結果を前記サーバから受信する端末側受信工程と、
     前記入力情報をキーとして、前記サーバに記憶されている動画から抽出された人物の外観の特徴と動きの特徴とを対応付けた人物情報の一部または全部を前記サーバから取得して記憶する入力補完データ記憶手段を検索し、前記入力情報を含む前記人物情報を取得する第2の検索工程と、
    を実行し、
     前記表示制御工程では、前記第2の検索工程で取得された前記人物情報の少なくとも一部を、前記入力欄に入力される情報の候補として前記ディスプレイに表示させる端末装置の動作方法。
  13.  コンピュータを、
     検索キーの入力欄をディスプレイに表示させるとともに、検索結果を前記ディスプレイに表示させる表示制御手段、
     前記入力欄に入力された入力情報を取得する入力受付手段、
     前記入力情報をサーバに送信する端末側送信手段、
     前記検索結果を前記サーバから受信する端末側受信手段、
     前記サーバに記憶されている動画から抽出された人物の外観の特徴と動きの特徴とを対応付けた人物情報の一部または全部を前記サーバから取得して記憶する入力補完データ記憶手段、
     前記入力情報をキーとして前記入力補完データ記憶手段を検索し、前記入力情報を含む前記人物情報を取得する第2の検索手段、
    として機能させ、
     前記表示制御手段は、前記第2の検索手段により取得された前記人物情報の少なくとも一部を、前記入力欄に入力される情報の候補として前記ディスプレイに表示させるプログラム。
  14.  コンピュータが、
     検索キーの入力欄に入力された入力情報を端末装置から受信するサーバ側受信工程と、
     前記入力情報をキーとして、動画から抽出された人物の外観の特徴と動きの特徴とを対応付けた人物情報を記憶する検索情報記憶手段を検索し、前記入力情報を含む前記人物情報を取得する第1の検索工程と、
     前記第1の検索工程で取得された前記人物情報の少なくとも一部を、検索結果として前記端末装置に送信するサーバ側送信工程と、
    を実行するサーバの動作方法。
  15.  コンピュータを、
     動画から抽出された人物の外観の特徴と動きの特徴とを対応付けた人物情報を記憶する検索情報記憶手段、
     検索キーの入力欄に入力された入力情報を端末装置から受信するサーバ側受信手段、
     前記入力情報をキーとして前記検索情報記憶手段を検索し、前記入力情報を含む前記人物情報を取得する第1の検索手段、
     前記第1の検索手段により取得された前記人物情報の少なくとも一部を、検索結果として前記端末装置に送信するサーバ側送信手段、
    として機能させるプログラム。
PCT/JP2018/038796 2017-11-29 2018-10-18 検索システム、サーバ、端末装置、サーバの動作方法、端末装置の動作方法及びプログラム WO2019106997A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019557063A JP7014232B2 (ja) 2017-11-29 2018-10-18 検索システム、端末装置の動作方法及びプログラム
US16/767,953 US20200372070A1 (en) 2017-11-29 2018-10-18 Search system, operation method of terminal apparatus, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-228772 2017-11-29
JP2017228772 2017-11-29

Publications (1)

Publication Number Publication Date
WO2019106997A1 true WO2019106997A1 (ja) 2019-06-06

Family

ID=66664869

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/038796 WO2019106997A1 (ja) 2017-11-29 2018-10-18 検索システム、サーバ、端末装置、サーバの動作方法、端末装置の動作方法及びプログラム

Country Status (3)

Country Link
US (1) US20200372070A1 (ja)
JP (1) JP7014232B2 (ja)
WO (1) WO2019106997A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004133805A (ja) * 2002-10-11 2004-04-30 Ntt Data Corp 動画像処理方法、動画像処理装置およびその方法をコンピュータに実行させるプログラム
JP2006236318A (ja) * 2005-02-22 2006-09-07 Microsoft Corp クエリスペリングの訂正方法およびシステム
JP2009500954A (ja) * 2005-06-30 2009-01-08 グーグル・インコーポレーテッド 非標準位置ベーステキスト入力
JP2009230565A (ja) * 2008-03-24 2009-10-08 Laurel Bank Mach Co Ltd 行動管理装置
JP2010257451A (ja) * 2009-03-31 2010-11-11 Sogo Keibi Hosho Co Ltd 人物検索装置、人物検索方法、及び人物検索プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7274822B2 (en) * 2003-06-30 2007-09-25 Microsoft Corporation Face annotation for photo management
US8908987B1 (en) * 2012-10-01 2014-12-09 Google Inc. Providing image candidates based on diverse adjustments to an image
US9183467B2 (en) * 2013-05-03 2015-11-10 Microsoft Technology Licensing, Llc Sketch segmentation
US9443307B2 (en) * 2013-09-13 2016-09-13 Intel Corporation Processing of images of a subject individual
JP6723909B2 (ja) * 2016-12-09 2020-07-15 キヤノン株式会社 画像処理方法、画像処理装置、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004133805A (ja) * 2002-10-11 2004-04-30 Ntt Data Corp 動画像処理方法、動画像処理装置およびその方法をコンピュータに実行させるプログラム
JP2006236318A (ja) * 2005-02-22 2006-09-07 Microsoft Corp クエリスペリングの訂正方法およびシステム
JP2009500954A (ja) * 2005-06-30 2009-01-08 グーグル・インコーポレーテッド 非標準位置ベーステキスト入力
JP2009230565A (ja) * 2008-03-24 2009-10-08 Laurel Bank Mach Co Ltd 行動管理装置
JP2010257451A (ja) * 2009-03-31 2010-11-11 Sogo Keibi Hosho Co Ltd 人物検索装置、人物検索方法、及び人物検索プログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
AOKI, SHUICHI ET AL.: "Portrait retrieval from moving pictures with rough sketch", ITE TECHNICAL REPORT, vol. 26, no. 24, 5 March 2002 (2002-03-05), pages 25 - 30 *
HU, S. ET AL.: "Efficient dynamic scene search in large amount videos", IPSJ TECHNICAL REPORT, COMP. GRAPHICS AND VISUAL INFORMATICS, 1 November 2017 (2017-11-01), pages 1 - 8, Retrieved from the Internet <URL:https://ipsj.ixsq.nii.ac.jp/ej/?action=repository_uri&item_id=184038&file_id=l&file_no=l> *
TANASE, CLAUDIU ET AL.: "Semantic Sketch-Based Video Retrieval with Autocompletion", IUI' 16 COMPANION COMPANION PUBLICATION OF THE 21ST INTERNATIONAL CONFERENCE ON INTELLIGENT USER INTERFACES, 7 March 2016 (2016-03-07), pages 97 - 101, XP058080131 *

Also Published As

Publication number Publication date
JPWO2019106997A1 (ja) 2020-12-17
JP7014232B2 (ja) 2022-02-01
US20200372070A1 (en) 2020-11-26

Similar Documents

Publication Publication Date Title
JP5358083B2 (ja) 人物画像検索装置及び画像検索装置
US10789525B2 (en) Modifying at least one attribute of an image with at least one attribute extracted from another image
JP5653131B2 (ja) オブジェクト認識装置およびその認識方法
KR102124466B1 (ko) 웹툰 제작을 위한 콘티를 생성하는 장치 및 방법
US7003140B2 (en) System and method of searching for image data in a storage medium
KR102102571B1 (ko) 온라인 쇼핑 플랫폼을 제공하는 시스템 및 방법
TW201339867A (zh) 視頻檔檢索系統及檢索方法
JP2008257460A (ja) 情報処理装置、情報処理方法、およびプログラム
JP7238902B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2016512363A (ja) コンテンツ作成ツール
US20180151178A1 (en) Interactive question-answering apparatus and method thereof
US9621505B1 (en) Providing images with notifications
TW202004525A (zh) 搜索方法、電子裝置及非暫時性電腦可讀記錄媒體
JP2024045460A (ja) 情報処理システム、情報処理装置、情報処理方法、およびプログラム
JP7238963B2 (ja) 情報処理装置、検索方法、及びプログラム
KR102659290B1 (ko) 모자이크 생성 장치 및 방법
WO2019106997A1 (ja) 検索システム、サーバ、端末装置、サーバの動作方法、端末装置の動作方法及びプログラム
KR102408256B1 (ko) 검색을 수행하는 방법 및 장치
KR101724143B1 (ko) 검색 서비스 제공 장치, 시스템, 방법 및 컴퓨터 프로그램
JP2007102362A (ja) 分類カテゴリ自動形成装置及びデジタル画像コンテンツ自動分類装置並びにデジタル画像コンテンツ管理システム
JP7362074B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP6965939B2 (ja) 検索装置、検索方法及びプログラム
US20160162752A1 (en) Retrieval apparatus, retrieval method, and computer program product
JP2015179399A (ja) テキスト生成装置、テキスト生成プログラム及びテキスト生成方法
JP2020035086A (ja) 情報処理システム、情報処理装置およびプログラム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2019557063

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18882799

Country of ref document: EP

Kind code of ref document: A1