WO2022201541A1 - 検索装置、検索方法、及びコンピュータ読み取り可能な記録媒体 - Google Patents

検索装置、検索方法、及びコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
WO2022201541A1
WO2022201541A1 PCT/JP2021/013097 JP2021013097W WO2022201541A1 WO 2022201541 A1 WO2022201541 A1 WO 2022201541A1 JP 2021013097 W JP2021013097 W JP 2021013097W WO 2022201541 A1 WO2022201541 A1 WO 2022201541A1
Authority
WO
WIPO (PCT)
Prior art keywords
search
information
attribute information
score
search target
Prior art date
Application number
PCT/JP2021/013097
Other languages
English (en)
French (fr)
Inventor
テイテイ トウ
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2021/013097 priority Critical patent/WO2022201541A1/ja
Priority to US18/278,762 priority patent/US12118024B2/en
Priority to JP2023508410A priority patent/JPWO2022201541A5/ja
Publication of WO2022201541A1 publication Critical patent/WO2022201541A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/338Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/532Query formulation, e.g. graphical querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language

Definitions

  • the present invention relates to a search device and search method for searching based on search conditions, and further to a computer-readable recording medium recording programs for realizing these.
  • Patent Literature 1 discloses a dialogue scenario generation system that generates scenario data that allows the dialogue to continue until the FAQ data desired by the user is obtained.
  • Patent Document 1 is a system that searches for FAQ data desired by the user through interaction between the user and the system, so it is difficult to apply it to searching for image data. That is, it is difficult to apply the system of Patent Literature 1 because there are many similarities and duplications in image data and the like.
  • it aims to provide a search device, a search method, and a computer-readable recording medium for efficiently obtaining search results by updating search conditions based on user answers to questions. .
  • the search device in one aspect is Using a search condition having one or more attribute information, referring to a data set having search target information in which an image is associated with one or more attribute information, the attribute matching the attribute information of the search condition a search target extraction unit that extracts search target information having information; If the number of the extracted search target information is not within the search result range set in advance, refer to a knowledge base in which attribute information is hierarchically classified, and search in advance for each attribute information included in the extracted search target information.
  • a score calculation unit that calculates a score using a determined score function
  • a question generation unit that selects attribute information based on the calculated score and generates question information representing a question to be presented to the user using the selected attribute information
  • a search condition generation unit that reflects attribute information represented by the user's answer to the question information in the search condition to generate a new search condition
  • a search method includes: Using a search condition having one or more attribute information, referring to a data set having search target information in which an image is associated with one or more attribute information, the attribute matching the attribute information of the search condition a search target extraction step of extracting search target information having information; If the number of the extracted search target information is not within the search result range set in advance, refer to a knowledge base in which attribute information is hierarchically classified, and search in advance for each attribute information included in the extracted search target information.
  • a score calculation step of calculating a score using a determined score function
  • a question generation step of selecting attribute information based on the calculated score and generating question information representing a question to be presented to the user using the selected attribute information
  • a search condition generation step of reflecting attribute information represented by the user's answer to the question information in the search condition to generate a new search condition
  • a computer-readable recording medium recording a program includes: to the computer, Using a search condition having one or more attribute information, referring to a data set having search target information in which an image is associated with one or more attribute information, the attribute matching the attribute information of the search condition a search target extraction step of extracting search target information having information; If the number of the extracted search target information is not within the search result range set in advance, refer to a knowledge base in which attribute information is hierarchically classified, and search in advance for each attribute information included in the extracted search target information.
  • a score calculation step of calculating a score using a determined score function
  • a question generation step of selecting attribute information based on the calculated score and generating question information representing a question to be presented to the user using the selected attribute information
  • a search condition generation step of reflecting attribute information represented by the user's answer to the question information in the search condition to generate a new search condition
  • FIG. 1 is a diagram showing an example of a search device.
  • FIG. 2 is a diagram for explaining an example of the knowledge base.
  • FIG. 3 is a diagram for explaining the relationship between search target information and attribute information.
  • FIG. 4 is a diagram showing an example of a system having a search device.
  • FIG. 5 is a diagram for explaining an example of the operation of the search device;
  • FIG. 6 is a diagram showing an example of a computer that implements the search device.
  • FIG. 7 is a diagram for explaining questions and answers.
  • FIG. 8 is a diagram for explaining the relationship between search target information and attribute information.
  • FIG. 1 is a diagram showing an example of a search device.
  • the search device 10 shown in FIG. 1 updates the search conditions based on the user's answer to the question, and can efficiently obtain search results. Further, as shown in FIG. 1 , the search device 10 has a search target extraction unit 11 , a score calculation unit 12 , a question generation unit 13 and a search condition generation unit 14 . The search device 10 is also connected to a knowledge base 15 via a network or the like.
  • the search target extracting unit 11 uses a search condition having one or more attribute information to refer to a data set having search target information in which an image is associated with one or more attribute information, and extracts the attribute information of the search condition. Extracts search target information having attribute information that matches with .
  • the search target extraction unit 11 extracts images based on search conditions.
  • An image is, for example, an image in which a person or an object is captured.
  • the image may be a still image or a moving image. Examples of still images include paintings, graphics, clip arts, and illustrations, and examples of moving images include video images and animations, but the types of images are not limited to these.
  • the search condition has one or more pieces of attribute information representing image features.
  • the attribute information represents characteristics of an image of a person (hereinafter referred to as a person image), for example, gender, age, color of clothes, glasses, etc. can be considered.
  • the search target extraction unit 11 uses gender, age, color of clothes, and eyeglasses to associate with each person image. By referring to one or more pieces of attribute information, a person image having the attribute information of gender, age, color of clothes, and glasses is extracted.
  • the attribute information associated with each person image is classified hierarchically.
  • the attribute information is hierarchized like the knowledge base shown in FIG.
  • FIG. 2 is a diagram for explaining an example of the knowledge base. Details of the knowledge base will be described later.
  • the data set has search target information in which a person ID, one or more pieces of attribute information, and a person image are associated.
  • FIG. 3 is a diagram for explaining the relationship between search target information and attribute information.
  • the data set in FIG. 3 has nine items of search target information.
  • attribute information such as age, sex, eyeglasses, and color of clothes are hierarchically classified.
  • Age has middle-aged and elderly attribute information and young people in the lower layer.
  • Middle-aged and elderly have attribute information of 40's, 50's and 60's in the lower layer.
  • Young people have attribute information of twenties and thirties in the lower layer.
  • Gender has male and female attribute information in the lower layer. There are no glasses in the lower layer (representing the state of not wearing glasses), corrective glasses (representing wearing glasses to correct vision), and sunglasses (representing wearing sunglasses) Has attribute information.
  • the color of the clothes has grey-black, orange, red, yellow, green, blue, and purple attribute information in the lower layer.
  • Reds have attribute information of deep reds, dark reds, and light corals in the lower layer.
  • Crimson has attribute information of crimson (255, 0, 0), orange-red (255, 69, 0), and crimson (220, 20, 60) in the lower layer.
  • Dark red has attribute information of dark red (139, 0, 0), brown (165, 42, 42), and fire brick (178, 34, 34) in the lower layer.
  • Light corals have attribute information of light coral (240, 128, 128), Indian red (205, 92, 92) and salmon (250, 128, 114) in the lower layer.
  • the three numbers in parentheses represent RGB values.
  • the structure of the knowledge base is not limited to the structure shown in Figure 2.
  • the knowledge base 15 is provided outside the search device 10 in the example of FIG. 1, it may be provided inside the search device 10. FIG.
  • the score calculation unit 12 refers to the knowledge base 15 in which attribute information is hierarchically classified, and calculates the attributes included in the extracted search target information. A score is calculated using a predetermined score function for each piece of information.
  • the search result range is preset by the user.
  • the search result range is information representing the range of the number of search target information obtained by extraction desired by the user.
  • the score function includes a reduced score function and an expanded score function.
  • the reduction score function is a function used to reduce the number of search target information when the number of search target information obtained by extraction is larger than the search result range.
  • the score calculation unit 12 calculates a score using a reduced score function for attribute information having attribute information (leaf node) in a lower layer (lower layer).
  • the reduced score function is, for example, Equation 1 or the like.
  • the expansion score function is a function used to expand the number of search target information when the number of search target information obtained by extraction is smaller than the search result range.
  • the score calculation unit 12 refers to the knowledge base 15, and calculates the score of the attribute information (node) of the upper layer (higher rank) or the attribute information (node) of the same layer (coordinate) using the expanded score function. .
  • the augmented score function is, for example, Equation 2 or the like.
  • the element function f1i(o) is a function that returns a larger value as the attribute information of the search condition is input later.
  • the reason why a larger value is returned the later the order is, is that the later the order in which the attribute information is input, the higher the uncertainty, so it is better to narrow down.
  • the element function f1i(o) is, for example, Equation 3 or the like.
  • the element function f1i(o) is used to calculate the value for each piece of attribute information.
  • men are 1/2, 30's are 2/3, red is 3/4, and glasses are 4/5 (or ⁇ 1).
  • the weighting factor w1 is a value greater than 0 and less than or equal to 1. Note that the weighting factor w1 of the element function f1i(o) is determined by experiment, simulation, or the like.
  • the element function f2i(d) is a function that calculates a value for the distance from a node to a leaf node in the knowledge base 15. The greater the distance between the node corresponding to the attribute information and the leaf node, the higher the ambiguity and the higher the possibility of narrowing down.
  • the function f2i(d) is, for example, Formula 4.
  • the element function f2i(d) is used to calculate the value for each piece of attribute information.
  • the weighting factor w2 is a value greater than 0 and less than or equal to 1.
  • the weighting factor w2 of the element function f2i(d) is determined through experiments, simulations, or the like.
  • the element function f3i(r) is a function for calculating the division ratio r for the extracted attribute information.
  • the search target information extracted using the lower layer attribute information is divided as evenly as possible. The more even the split, the better the ability to narrow down.
  • the function f3i(r) is, for example, Equation 5.
  • the ratio r j of the number of pieces of search target information for grapes to the total number will be described.
  • the attribute information is red
  • attribute information There are three types of attribute information (crimson, orange-red, crimson) in the lower layer of crimson. There are three attribute information (dark red, brown, firebrick) under the dark red class. There are three attribute information (Light Coral, Indian Red, Salmon) in the lower layer of Light Coral.
  • Crimson and Crimson which are lower layers of Crimson, are associated with search target information related to person IDs 1 and 2, the ratio r1 of Crimson to the total number is 2/9. Since dark red, brown, and firebrick, which are lower layers of dark red, are associated with the search target information related to person IDs 3, 4, 5, and 6, the ratio r2 of the total number of dark red is 4 . /9. Since light coral and salmon, which are below light corals, are associated with search target information related to person IDs 7, 8, and 9, the ratio r3 of light corals to the total number is 3/9. Therefore, the element function f3i(r) when the attribute information is red is given by Equation (6).
  • the element function f3i(r) is Formula 7.
  • the weighting factor w3 is a value greater than 0 and less than or equal to 1.
  • the weighting factor w3 of the element function f3i(r) is determined through experiments, simulations, or the like.
  • the attribute information of the search condition and the attribute information of the attribute information of the search condition are combined to calculate the similarity, and the maximum value of the calculated similarities is is similarity s.
  • the function f4i(s) is, for example, Equation 8.
  • the weighting factor w4 is a value greater than 0 and less than or equal to 1. Note that the weighting factor w4 of the element function f4i(s) is determined by experiments, simulations, or the like.
  • the question generation unit 13 selects attribute information based on the calculated score, and uses the selected attribute information to generate question information representing questions to be presented to the user. Specifically, first, the question generation unit 13 compares scores calculated for each piece of attribute information, and selects attribute information corresponding to the highest score. Next, the question generation unit 13 generates question information representing a question to be presented to the user using the selected attribute information.
  • the search condition generation unit 14 reflects the attribute information included in the user's answer to the question information in the search conditions and generates new search conditions.
  • the search conditions are updated based on the user's answer to the question, and the updated search information is used for the search, so the search results can be obtained efficiently.
  • FIG. 4 is a diagram showing an example of a system having a search device.
  • the system 40 in the embodiment has a search device 10, a knowledge base 15, and an input/output device 41.
  • the search device 10 is, for example, a CPU (Central Processing Unit), a programmable device such as an FPGA (Field-Programmable Gate Array), or a GPU (Graphics Processing Unit), or one or more of them.
  • Information processing devices such as circuits, server computers, personal computers, and mobile terminals.
  • the input/output device 41 has a user interface, and has an input section for the user to input information and an output section for outputting images and sounds to the user.
  • the input unit is, for example, an input device having a keyboard, mouse, touch panel, and the like.
  • the output unit is, for example, an image display device using liquid crystal, organic EL (Electro Luminescence), or CRT (Cathode Ray Tube).
  • the image display device may include an audio output device such as a speaker.
  • the output unit may be a printing device such as a printer.
  • the search target extraction unit 11, the score calculation unit 12, the question generation unit 13, the search condition generation unit 14, and the knowledge base 15 of the search device 10 have already been described, so descriptions thereof will be omitted.
  • FIG. 5 is a diagram for explaining an example of the operation of the search device; In the following description, reference will be made to the drawings as appropriate. Also, in the embodiment, the search method is implemented by operating the search device. Therefore, the description of the search method in the embodiment is replaced with the description of the operation of the search device below.
  • step A2 the search target extraction unit 11 acquires initial search conditions at the start of search (step A2). Specifically, in step A2 at the start of search, the document information created by the user is analyzed using a known document analysis tool or the like, and attribute information of search conditions is acquired. For example, a document such as "Gender is male, age is about 30, and the color of the clothes is red” is acquired, this document is analyzed, and the attribute information of the search conditions is sex: male, age: 30s, clothes color: get red and so on.
  • step A2 after the search condition is updated, the search target extraction unit 11 acquires the updated search information.
  • the search target extracting unit 11 uses the attribute information of the search condition to refer to the attribute information associated with the search target information, and searches for search target information that matches any one or more of the attribute information of the search condition. Extract and set the search target information (data set) (step A3).
  • the search target extracting unit 11 uses a search condition having one or more attribute information to refer to a data set having search target information in which an image is associated with one or more attribute information, and extracts the search condition (step A4).
  • the score calculation unit 12 determines whether or not the number of pieces of search target information is within a preset search result range (step A5). If the number of search target information is not within the search result range, refer to the knowledge base where attribute information is classified hierarchically, and use a predetermined score function for each attribute information included in the extracted search target information. Calculate the score.
  • step A5 calculate reduced score
  • the score calculation unit 12 determines that attribute information (leaf node) is in the lower layer (lower).
  • a score is calculated for existing attribute information using a reduced score function (step A6).
  • the reduced score function is, for example, Equation 1 or the like.
  • the question generation unit 13 selects attribute information based on the calculated score, and generates question information representing a question to be presented to the user using the selected attribute information (step A7). Specifically, in step A7, the question generation unit 13 compares the scores calculated for each piece of attribute information in step A6, and selects the attribute information corresponding to the highest score. Next, the question generation unit 13 generates question information representing a question to be presented to the user using the selected attribute information.
  • the score calculation unit 12 calculates the attribute information (node) of the upper layer (higher rank) or the same layer (same rank ) for the attribute information (node), the score is calculated using the extended score function (step A8).
  • the augmented score function is, for example, Equation 2 or the like.
  • the question generation unit 13 selects attribute information based on the calculated score, and generates question information representing a question to be presented to the user using the selected attribute information (step A9). Specifically, in step A9, the question generation unit 13 compares the scores calculated for each piece of attribute information in step A8, and selects the attribute information corresponding to the highest score. Next, the question generation unit 13 generates question information representing a question to be presented to the user using the selected attribute information.
  • the question generation unit 13 outputs the question information to the input/output device 41 (step A10).
  • the search condition generator 14 acquires answer information representing the user's answer to the question information (step A11).
  • the search condition generator 14 determines whether or not to update the search conditions (step A12). If the search conditions are to be updated (step A12: Yes), the search condition generator 14 reflects the attribute information in the search conditions to generate new search conditions (step A13). If the search condition is not to be updated (step A12: No), the process proceeds to step A5 to generate question information again.
  • the search condition generator 14 updates the data set (step A14). Specifically, in step A14, the search condition generator 14 extracts search target information having the attribute information used in updating the search conditions, and uses the extracted search target information as a new data set.
  • step A2 the search is continued using the updated search conditions and the updated data set. Then, if the number of pieces of information to be searched is within the search result range, the search processing is terminated (step A5: end of search).
  • the search condition is updated based on the user's answer to the question, and the updated search information is used for the search, so that the search result can be obtained efficiently.
  • the user can also more accurately grasp the attribute information of the search target.
  • the program in the embodiment may be any program that causes a computer to execute steps A1 to A14 shown in FIG.
  • the processor of the computer functions as a search target extraction unit 11, a score calculation unit 12, a question generation unit 13, and a search condition generation unit 14, and performs processing.
  • each computer may function as one of the search target extractor 11, the score calculator 12, the question generator 13, and the search condition generator 14, respectively.
  • FIG. 6 is a diagram showing an example of a computer that implements the search device in the embodiment.
  • the computer 110 includes a CPU (Central Processing Unit) 111, a main memory 112, a storage device 113, an input interface 114, a display controller 115, a data reader/writer 116, and a communication interface 117. and These units are connected to each other via a bus 121 so as to be able to communicate with each other.
  • the computer 110 may include a GPU or FPGA in addition to or instead of the CPU 111 .
  • the CPU 111 expands the programs (codes) in this embodiment stored in the storage device 113 into the main memory 112 and executes them in a predetermined order to perform various calculations.
  • the main memory 112 is typically a volatile storage device such as DRAM (Dynamic Random Access Memory).
  • the program in this embodiment is provided in a state stored in a computer-readable recording medium 120 .
  • the program in this embodiment may be distributed on the Internet connected via the communication interface 117 .
  • the recording medium 120 is a non-volatile recording medium.
  • the storage device 113 includes hard disk drives and semiconductor storage devices such as flash memory.
  • Input interface 114 mediates data transmission between CPU 111 and input devices 118 such as a keyboard and mouse.
  • the display controller 115 is connected to the display device 119 and controls display on the display device 119 .
  • the data reader/writer 116 mediates data transmission between the CPU 111 and the recording medium 120, reads programs from the recording medium 120, and writes processing results in the computer 110 to the recording medium 120.
  • Communication interface 117 mediates data transmission between CPU 111 and other computers.
  • the recording medium 120 include general-purpose semiconductor storage devices such as CF (Compact Flash (registered trademark)) and SD (Secure Digital), magnetic recording media such as flexible disks, and CD- Optical recording media such as ROM (Compact Disk Read Only Memory) can be mentioned.
  • CF Compact Flash
  • SD Secure Digital
  • magnetic recording media such as flexible disks
  • CD- Optical recording media such as ROM (Compact Disk Read Only Memory) can be mentioned.
  • search device 10 in the embodiment can also be realized by using hardware corresponding to each part instead of a computer in which a program is installed. Furthermore, the search device 10 may be partly implemented by a program and the rest by hardware.
  • the search target extraction unit 11 acquires search conditions (step A2). For example, sex: male, age: 30's, and color of clothes: red are acquired as attribute information of search conditions.
  • the search target extracting unit 11 refers to the attribute information of each of the search target information in the data set using male, 30s, and red as the attribute information of the search condition, and extracts the attribute information matching the attribute information of the search condition. (step A4). In the embodiment, it is assumed that the search target information shown in FIG. 3 is extracted.
  • search target information that matches the search conditions male, 30s, red
  • search target information corresponding to person image IDs 1, 2, and 7 is selected. Also, the number of pieces of extracted search target information is three.
  • the score calculation unit 12 determines whether or not the number of pieces of extracted search target information is within the search result range (step A5). Since the number of extracted search target information is 3, it is larger than 2 set in the search result range (3>2). Therefore, the reduced score is calculated (step A5: calculate reduced score).
  • the score calculation unit 12 refers to the knowledge base 15 and calculates the reduced score of the attribute information in the lower nodes (step A6).
  • the score shown in Equation 10 is calculated using, for example, the reduced score function S1(i) in Equation 9.
  • the question generation unit 13 selects attribute information with the highest score from among the calculated scores. Since red has the highest score in Equation 10, red attribute information is selected.
  • the question generation unit 13 acquires the attribute information of bright reds, dark reds, and light corals that are below the attribute information of red. Then, the question generation unit 13 presents question information for displaying on the output unit, for example, "Which red color is closest to bright red, dark red, or light coral?" is generated (step A7).
  • the question generation unit 13 outputs the question information to the output device and presents the question to the user (step A10).
  • the question is displayed as shown in question display 71 in FIG. However, it is not limited to the question display 71 .
  • FIG. 7 is a diagram for explaining questions and answers.
  • the search condition generator 14 acquires answer information representing the user's answer to the question information (step A11).
  • the user answers dark red.
  • the answers are displayed as shown in answer display 72 in FIG. However, it is not limited to the answer display 72 .
  • step A12 determines whether to update the search conditions. Then, if the search condition is to be updated (step A12: Yes), the search condition generator 14 updates the red of the search condition to dark red (step A13). If the search condition is not to be updated (step A12: No), the process proceeds to step A5 to generate question information again and present the question.
  • the search condition generator 14 updates the data set (step A14).
  • search target information that does not have dark red is excluded.
  • the data set is only search target information corresponding to person IDs 3 to 6.
  • the search target extraction unit 11 acquires the updated search conditions.
  • Gender Male
  • Age 30's
  • Clothes Color Dark Red are acquired as attribute information of the updated search condition.
  • the search target extraction unit 11 sets the updated data set (step A3).
  • the search target extraction unit 11 extracts search target information having attribute information that matches the updated search conditions (male, 30s, dark red) from the updated data set (step A4). However, since no search target information is extracted, the number of extracted search target information is zero.
  • the score calculation unit 12 determines whether or not the number of pieces of extracted search target information is within the search result range (step A5). Since the number of extracted search target information is 0, it is smaller than 1 set in the search result range (0 ⁇ 1), so an expanded score is calculated (step A5: calculate expanded score).
  • the score calculation unit 12 refers to the knowledge base 15 and calculates the expanded score of the attribute information in the higher or equivalent node (step A8).
  • the score is calculated using, for example, the expanded score function S2(i) of Equation 11.
  • the element function f4i(s) is calculated.
  • the similarity is calculated by combining the attribute information of the search condition and the attribute information at the higher level or the same node of the attribute information of the search condition.
  • the maximum similarity value of women in the same rank as men is 0.2
  • the maximum similarity of women in their 40s (40s expanded from 30s) in the same rank as their 30s. is 0.8.
  • the question generation unit 13 selects attribute information with the highest score from among the calculated scores. Since the score of people in their 40s is the highest in Equation 12, the attribute information of people in their 40s is selected.
  • the question generation unit 13 acquires attribute information for people in their 40s. Then, the question generation unit 13 generates question information to be presented to the user, for example, "Are you in your 40s?" (step A9).
  • the question generation unit 13 outputs the question information to the output device and presents the question to the user (step A10).
  • the question is displayed as shown in question display 73 in FIG. However, it is not limited to the question display 73 .
  • the search condition generator 14 acquires answer information representing the user's answer to the question information (step A11).
  • answer information representing the user's answer to the question information
  • the answers are displayed as shown in answer display 74 in FIG. However, it is not limited to the answer display 74 .
  • step A12 determines whether to update the search conditions. Then, if the search condition is to be updated (step A12: Yes), the search condition generator 14 updates the search condition by adding people in their 40s (step A13). If the search condition is not updated (step A12: No), the process proceeds to step A5 and the question is presented again.
  • the search condition generator 14 updates the data set (step A14).
  • search target information for people in their 40s is added. However, since there are already people in their 40s, they will not be updated.
  • the search target extraction unit 11 acquires the updated search conditions.
  • gender male, age: 30's or 40's, and clothing color: dark red are acquired as attribute information of the updated search condition.
  • the search target extraction unit 11 sets a data set (step A3).
  • the search target extraction unit 11 extracts search target information that matches the search conditions (male, 30's or 40's, dark red) from the data set (step A4).
  • person image IDs 4, 5 and 6 are selected.
  • the number of pieces of extracted search target information is three.
  • the score calculation unit 12 determines whether or not the number of pieces of extracted search target information is within the search result range (step A5). Since the number of pieces of search target information extracted is 3, it is larger than 2 set in the search result range (3>2). Therefore, the reduced score is calculated (step A5: calculate reduced score).
  • the score calculation unit 12 refers to the knowledge base 15 and calculates reduced scores for the attributes in the lower nodes (step A6).
  • the element functions f3i(r) for each of dark red and eyeglasses are calculated.
  • the number of data is 4, the number of lower nodes is 3, and the standard division is 2, 1, 1. Therefore, the element functions f3i(r) for dark red and glasses are given by Equation 13.
  • Equation 14 a reduced score function S1(i) is calculated for each piece of attribute information as shown in Equation 14.
  • the question generation unit 13 selects attribute information with the highest score from among the calculated scores.
  • glasses have the highest score, so the attribute information of glasses is selected.
  • the question generation unit 13 acquires the attribute information of the glasses. Then, the question generation unit 13 generates question information to be presented to the user, for example, "What kind of glasses do you wear? No, corrective glasses, sunglasses" (step A9).
  • the question generation unit 13 outputs the question information to the output device and presents the question to the user (step A10).
  • the question is displayed as shown in question display 75 in FIG. However, it is not limited to the question display 75 .
  • the search condition generator 14 acquires answer information representing the user's answer to the question information (step A11).
  • the user answers "sunglasses".
  • the answers are displayed as shown in answer display 76 in FIG. However, it is not limited to the answer display 76 .
  • step A12 determines whether to update the search conditions. Then, if the search condition is to be updated (step A12: Yes), the search condition generator 14 adds sunglasses to the search condition (step A13). If the search condition is not to be updated (step A12: No), the process proceeds to step A5 to generate question information again and present the question.
  • the search condition generator 14 updates the data set (step A14).
  • search target information that does not have sunglasses is excluded.
  • the data set is only the search target information corresponding to person ID 6 shown in FIG.
  • FIG. 8 is a diagram for explaining the relationship between search target information and attribute information.
  • the search target extraction unit 11 acquires the updated search conditions.
  • gender male, age: 30's or 40's, color of clothes: dark red, glasses: sunglasses are acquired as attribute information of updated search conditions.
  • the search target extraction unit 11 sets a data set (step A3).
  • the search target extraction unit 11 extracts search target information that matches the search conditions (male, 30's or 40's, dark red, sunglasses) from the data set (step A4).
  • person image ID6 is selected.
  • the number of pieces of extracted search target information is one.
  • a search device having
  • the search device refers to the knowledge base and uses a reduction score function to reduce the search results for each attribute information of a lower node when the number of the extracted search target information is larger than the search result range. calculate a score, search device.
  • the search device according to any one of Appendices 1 to 3,
  • the search target information is information in which identification information for identifying the search target information, the attribute information, and a person image related to the search target information are associated with each other. search device.
  • a score calculation step of calculating a score using a determined score function
  • a question generation step of selecting attribute information based on the calculated score and generating question information representing a question to be presented to the user using the selected attribute information
  • a search condition generation step of reflecting attribute information represented by the user's answer to the question information in the search condition to generate a new search condition
  • Appendix 7 The search method according to appendix 5 or 6, In the score calculation step, when the number of the extracted search target information is larger than the search result range, the knowledge base is referred to, and a reduction score function is used to reduce the search results for each attribute information of lower nodes. calculate a score, retrieval method.
  • the search target information is information in which identification information for identifying the search target information, the attribute information, and a person image related to the search target information are associated with each other. retrieval method.
  • a computer-readable recording medium recording a program containing instructions for executing a
  • Appendix 10 The computer-readable recording medium according to Appendix 9, In the score calculation step, when the number of the extracted search target information is smaller than the search result range, an expansion score function for referring to the knowledge base and expanding the search results for each attribute information of a higher node or a peer node. Calculate the score using Computer-readable recording medium.
  • Appendix 11 The computer-readable recording medium according to Appendix 9 or 10, In the score calculation step, when the number of the extracted search target information is larger than the search result range, the knowledge base is referred to, and a reduction score function is used to reduce the search results for each attribute information of lower nodes. calculate a score, Computer-readable recording medium.
  • the computer-readable recording medium according to any one of appendices 9 to 11,
  • the search target information is information in which identification information for identifying the search target information, the attribute information, and a person image related to the search target information are associated with each other.
  • Computer-readable recording medium is information in which identification information for identifying the search target information, the attribute information, and a person image related to the search target information are associated with each other.
  • the present invention it is possible to efficiently obtain search results by updating the search conditions based on the user's answer to the question.
  • INDUSTRIAL APPLICABILITY The present invention is useful in fields where it is necessary to perform searches efficiently.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

検索装置10は、一つ以上の属性情報を有する検索条件を用いて、画像と一つ以上の属性情報とが関連付けられた検索対象情報を有するデータセットを参照し、検索条件の属性情報と一致する属性情報を有する検索対象情報を抽出する、検索対象抽出部11と、抽出した検索対象情報の数があらかじめ設定された検索結果範囲にない場合、属性情報が階層的に分類されたナレッジベースを参照し、抽出した検索対象情報に含まれる属性情報ごとに、あらかじめ決められたスコア関数を用いてスコアを算出する、スコア算出部12と、算出したスコアに基づいて属性情報を選択し、選択した属性情報を用いて利用者に提示する質問を表す質問情報を生成する、質問生成部13と、質問情報に対する利用者の回答が表す属性情報を検索条件に反映させ、新たな検索条件を生成する、検索条件生成部14と、を有する。

Description

検索装置、検索方法、及びコンピュータ読み取り可能な記録媒体
 本発明は、検索条件に基づいて検索をする検索装置、検索方法に関し、更には、これらを実現するためのプログラムを記録しているコンピュータ読み取り可能な記録媒体に関する。
 人物及び物体の画像を検索する場合、検索条件を作成して検索をする。ところが、利用者は膨大なデータを把握できないため、検索に最適な検索条件を作成するのは難しい。そのため、対象とする検索結果を得るまでに多大な労力と時間が必要となる。
 関連する技術として特許文献1には、利用者が所望するFAQデータが得られるまで、対話を継続できるシナリオデータを生成する対話シナリオ生成システムが開示されている。
 特許文献1のシステムによれば、検索対象のデータの数が三個以上の場合、それらの検索対象のデータの属性とその属性値との対の組み合わせについて、当該組み合わせに含まれていない属性と属性値との対の観点から整理する。
 特許文献1のシステムでは、利用者とシステムとの対話を通して、利用者の意図が当該組み合わせに関連していると判別された場合、当該組み合わせに含まれていない属性の属性値を選択候補として利用者に提示する。そして、検索対象のデータを絞り込むための選択させるためのシナリオデータを生成する。
特開2012-248161号公報
 しかしながら、特許文献1のシステムでは、利用者とシステムとの対話を通して、利用者が所望するFAQデータを探索するシステムであるため、画像データの検索に適用することは困難である。すなわち、画像データなどは類似・重複が多いため、特許文献1のシステムを適用することは困難である。
 一つの側面として、質問に対する利用者の回答に基づいて検索条件を更新して、検索結果を効率よく取得する、検索装置、検索方法、及びコンピュータ読み取り可能な記録媒体を提供することを目的とする。
 上記目的を達成するため、一つの側面における検索装置は、
 一つ以上の属性情報を有する検索条件を用いて、画像と一つ以上の属性情報とが関連付けられた検索対象情報を有するデータセットを参照し、前記検索条件の前記属性情報と一致する前記属性情報を有する検索対象情報を抽出する、検索対象抽出部と、
 抽出した前記検索対象情報の数があらかじめ設定された検索結果範囲にない場合、属性情報が階層的に分類されたナレッジベースを参照し、抽出した前記検索対象情報に含まれる属性情報ごとに、あらかじめ決められたスコア関数を用いてスコアを算出する、スコア算出部と、
 算出した前記スコアに基づいて属性情報を選択し、選択した前記属性情報を用いて利用者に提示する質問を表す質問情報を生成する、質問生成部と、
 前記質問情報に対する前記利用者の回答が表す属性情報を前記検索条件に反映させ、新たな検索条件を生成する、検索条件生成部と、
 を有することを特徴とする。
 また、上記目的を達成するため、本発明の一側面における検索方法は、
 一つ以上の属性情報を有する検索条件を用いて、画像と一つ以上の属性情報とが関連付けられた検索対象情報を有するデータセットを参照し、前記検索条件の前記属性情報と一致する前記属性情報を有する検索対象情報を抽出する、検索対象抽出ステップと、
 抽出した前記検索対象情報の数があらかじめ設定された検索結果範囲にない場合、属性情報が階層的に分類されたナレッジベースを参照し、抽出した前記検索対象情報に含まれる属性情報ごとに、あらかじめ決められたスコア関数を用いてスコアを算出する、スコア算出ステップと、
 算出した前記スコアに基づいて属性情報を選択し、選択した前記属性情報を用いて利用者に提示する質問を表す質問情報を生成する、質問生成ステップと、
 前記質問情報に対する前記利用者の回答が表す属性情報を前記検索条件に反映させ、新たな検索条件を生成する、検索条件生成ステップと、
 を有することを特徴とする。
 さらに、上記目的を達成するため、本発明の一側面におけるプログラムを記録したコンピュータ読み取り可能な記録媒体は、
 コンピュータに、
 一つ以上の属性情報を有する検索条件を用いて、画像と一つ以上の属性情報とが関連付けられた検索対象情報を有するデータセットを参照し、前記検索条件の前記属性情報と一致する前記属性情報を有する検索対象情報を抽出する、検索対象抽出ステップと、
 抽出した前記検索対象情報の数があらかじめ設定された検索結果範囲にない場合、属性情報が階層的に分類されたナレッジベースを参照し、抽出した前記検索対象情報に含まれる属性情報ごとに、あらかじめ決められたスコア関数を用いてスコアを算出する、スコア算出ステップと、
 算出した前記スコアに基づいて属性情報を選択し、選択した前記属性情報を用いて利用者に提示する質問を表す質問情報を生成する、質問生成ステップと、
 前記質問情報に対する前記利用者の回答が表す属性情報を前記検索条件に反映させ、新たな検索条件を生成する、検索条件生成ステップと、
 を実行させるプログラムを記録していることを特徴とする。
 一つの側面として、質問に対する利用者の回答に基づいて検索条件を更新して、検索結果を効率よく取得することができる。
図1は、検索装置の一例を示す図である。 図2は、ナレッジベースの一例を説明するための図である。 図3は、検索対象情報と属性情報との関係を説明するための図である。 図4は、検索装置を有するシステムの一例を示す図である。 図5は、検索装置の動作の一例を説明するための図である。 図6は、検索装置を実現するコンピュータの一例を示す図である。 図7は、質問と回答の説明をするための図である。 図8は、検索対象情報と属性情報との関係を説明するための図である。
 以下、図面を参照して実施形態について説明する。なお、以下で説明する図面において、同一の機能又は対応する機能を有する要素には同一の符号を付し、その繰り返しの説明は省略することもある。
(実施形態)
 図1を用いて、実施形態における検索装置10の構成について説明する。図1は、検索装置の一例を示す図である。
[装置構成]
 図1に示す検索装置10は、質問に対する利用者の回答に基づいて検索条件を更新して、検索結果を効率よく取得できる。また、図1に示すように、検索装置10は、検索対象抽出部11と、スコア算出部12と、質問生成部13と、検索条件生成部14とを有する。また、検索装置10は、ネットワークなどを介してナレッジベース15と接続されている。
 検索対象抽出部11は、一つ以上の属性情報を有する検索条件を用いて、画像と一つ以上の属性情報とが関連付けられた検索対象情報を有するデータセットを参照し、検索条件の属性情報と一致する属性情報を有する検索対象情報を抽出する。
 画像を抽出する場合について説明する。検索対象抽出部11は、検索条件に基づいて画像を抽出する。画像は、例えば、人物や物体が撮像された画像などである。画像は、静止画であっても、動画であってもよい。静止画の例としては絵画や図形、クリップアート、イラストなどがあり、動画の例としてはビデオ映像やアニメーションなどがあるが、画像の種類はこれらに限定されない。検索条件は、画像の特徴を表す属性情報を一つ以上有する。属性情報は、人物が撮像された画像(以降、人物画像と呼ぶ)の特徴を表す場合、例えば、性別、年齢、服の色、眼鏡などが考えられる。
 検索条件の属性情報を性別、年齢、服の色、眼鏡として人物画像を抽出する場合、検索対象抽出部11は、性別、年齢、服の色、眼鏡を用いて、人物画像それぞれに関連付けられている一つ以上の属性情報を参照して、性別、年齢、服の色、眼鏡の属性情報を有する人物画像を抽出する。
 人物画像それぞれに関連付けられている属性情報は、階層的に分類されている。属性情報は、図2に示すナレッジベースのように階層化されている。図2は、ナレッジベースの一例を説明するための図である。ナレッジベースの詳細については後述する。
 データセットは、図3に示すように人物IDと、一つ以上の属性情報と、人物画像とが関連付けられた検索対象情報を有している。図3は、検索対象情報と属性情報との関係を説明するための図である。図3のデータセットは9個の検索対象情報を有する。
 ナレッジベースについて説明する。図2のナレッジベースは、属性情報である年齢、性別、眼鏡、服の色が階層的に分類されている。年齢は下層に中高年と若者の属性情報を有する。中高年は下層に40代、50代、60代の属性情報を有する。また、若者は下層に20代、30代の属性情報を有する。
 性別は下層に男性と女性の属性情報を有する。眼鏡は下層に無(眼鏡を装着していない状態を表す)、矯正眼鏡(視力を矯正するための眼鏡を装着していることを表す)、サングラス(サングラスを装着していることを表す)の属性情報を有する。
 服の色は下層に灰黒系、オレンジ系、赤系、黄系、緑系、青系、紫系の属性情報を有する。赤系は下層に真赤類、暗赤類、ライトコーラル類の属性情報を有する。
 真赤類は下層に真赤(255,0,0)、橙赤(255,69,0)、深紅(220,20,60)の属性情報を有する。暗赤類は下層に暗赤(139,0,0)、ブラウン(165,42,42)、ファイアブリック(178,34,34)の属性情報を有する。ライトコーラル類は下層にライトコーラル(240,128,128)、インディアンレッド(205,92,92)、サーモン(250,128,114)の属性情報を有する。括弧内の三つの数値はRGBの値を表している。
 ただし、ナレッジベースの構造は、図2に示した構造に限定されるものではない。なお、図1の例では、ナレッジベース15は検索装置10の外部に設けられているが、検索装置10の内部に設けてもよい。
 スコア算出部12は、抽出した検索対象情報の数があらかじめ設定された検索結果範囲にない場合、属性情報が階層的に分類されたナレッジベース15を参照し、抽出した検索対象情報に含まれる属性情報ごとに、あらかじめ決められたスコア関数を用いてスコアを算出する。
 検索結果範囲は、利用者によりあらかじめ設定される。検索結果範囲は、利用者が希望する、抽出により得られる検索対象情報の数の範囲を表す情報である。スコア関数には、縮小スコア関数と拡大スコア関数である。
 縮小スコア関数は、抽出により得られた検索対象情報の数が検索結果範囲より大きい場合に、検索対象情報の数を縮小するために用いる関数である。スコア算出部12は、下層(下位)に属性情報(葉ノード)が存在する属性情報について、縮小スコア関数を用いてスコアを算出する。縮小スコア関数は、例えば、数1などである。
(数1)
 S1(i)=(w1×f1i(o))+(w2×f2i(d))+(w3×f3i(r))
 S1(i):縮小スコア
 i  :属性情報を識別する識別子
 w1 :要素関数f1i(o)の重み係数
 f1i(o):属性情報が入力される順番oに対する値を算出する関数
 w2 :要素関数f2i(d)の重み係数
 f2i(d):葉ノードとの距離dに対する値を算出する関数
 w3 :要素関数f3i(r)の重み係数
 f3i(r):抽出された属性情報に対する分割率rを算出する関数
 拡大スコア関数は、抽出により得られた検索対象情報の数が検索結果範囲より小さい場合に、検索対象情報の数を拡大するために用いる関数である。スコア算出部12は、ナレッジベース15を参照し、上層(上位)の属性情報(ノード)又は同層(同位)の属性情報(ノード)の属性情報について、拡大スコア関数を用いてスコアを算出する。拡大スコア関数は、例えば、数2などである。
(数2)
 S2(i)=(w1×f1i(o))+(w4×f4i(s))
 S2(i):拡大スコア
 w4 :要素関数f4i(s)の重み係数
 f4i(s):属性情報の類似度sに対する値を算出する関数
 要素関数f1i(o)は、検索条件の属性情報が入力された順番が後になるほど大きな値を返す関数である。順番が後になるほど大きな値を返す理由は、属性情報が入力される順番が後になるほど不確実性が高くなるので、絞り込んだ方がよいからである。要素関数f1i(o)は、例えば、数3などである。
(数3)
 f1i(o)=1-1/(o+1)
 o  :属性情報の入力の順番
 例えば、属性情報が男性、30代、赤の順番で入力された場合、男性が最初に入力されているのでo=1とする。30代は二番目に入力されているのでo=2とする。赤は三番目に入力されているのでo=3とする。また、眼鏡は入力されていないのでo=4(又は∞)にする。
 そして、要素関数f1i(o)を用いて、属性情報ごとに値を算出する。算出した結果、男性は1/2、30代は2/3、赤は3/4、眼鏡は4/5(又は≒1)となる。
 重み係数w1は、0より大きく1以下の値である。なお、要素関数f1i(o)の重み係数w1は、実験、シミュレーションなどにより決定する。
 要素関数f2i(d)は、ナレッジベース15におけるノードから葉ノードまでの距離に対する値を算出する関数である。属性情報に対応するノードと葉ノードとの距離が大きいほど、曖昧性が高くなるので、絞り込まれる可能性が高い。関数f2i(d)は、例えば、数4などである。
(数4)
 f2i(d)=1-1/(d+1)
 d  :ノードと葉ノードとの距離
 例えば、属性情報が男性、30代、赤、眼鏡である場合、図2のナレッジベースの男性の下層には葉ノードが存在しないのでd=0とする。30代も下層には葉ノードが存在しないのでd=0とする。赤は二階層下に葉ノードが存在するのでd=2とする。また、眼鏡は一階層下に葉ノードが存在するのでd=1とする。
 そして、要素関数f2i(d)を用いて属性情報ごとに値を算出する。算出した結果、男性は0、30代も0、赤は2/3、眼鏡は1/2となる。
 重み係数w2は、0より大きく1以下の値である。なお、要素関数f2i(d)の重み係数w2は、実験、シミュレーションなどにより決定する。
 要素関数f3i(r)は、抽出された属性情報に対する分割率rを算出する関数である。下層の属性情報を用いて抽出された検索対象情報をできるだけ均等に分割する。均等に分割するほど、絞り込む能力が高くなる。関数f3i(r)は、例えば、数5などである。
Figure JPOXMLDOC01-appb-M000001
 例えば、抽出された検索対象情報をできるだけ均等に分割する(標準分割)。図3に示す9個の抽出された検索対象情報を二分割した場合、5個と4個に分割することになる。対して、図3の9個の抽出された検索対象情報を三分割すると、3個ずつに均等に分割できる。
 したがって、グループの数は3個なので、k=3(j=1、2、3)となる。また、グループそれぞれの標準割合sは、s=3/9、s=3/9、s=3/9となる。
 次に、グレープの検索対象情報の数が全体数を占める割合rについて説明する。例えば、属性情報が赤系の場合、図2のナレッジベースでは、赤系の下層に三つの属性情報(真赤類、暗赤類、ライトコーラル類)がある。
 真赤類の下層には三つの属性情報(真赤、橙赤、深紅)がある。暗赤類の下層には三つの属性情報(暗赤、ブラウン、ファイアブリック)がある。ライトコーラル類の下層には三つの属性情報(ライトコーラル、インディアンレッド、サーモン)がある。
 人物ID1、2に関連する検索対象情報には真赤類の下層にある真赤、深紅が関連付けられているので、真赤類が全体数を占める割合rは2/9となる。人物ID3、4、5、6に関連する検索対象情報には暗赤類の下層にある暗赤、ブラウン、ファイアブリックが関連付けられているので、暗赤類が全体数を占める割合rは4/9となる。人物ID7、8、9に関連する検索対象情報にはライトコーラル類の下層にあるライトコーラル、サーモンが関連付けられているので、ライトコーラル類が全体数を占める割合rは3/9となる。したがって、属性情報が赤系の場合の要素関数f3i(r)は数6になる。
Figure JPOXMLDOC01-appb-M000002
 また、属性情報が眼鏡の場合には要素関数f3i(r)は数7となる。
Figure JPOXMLDOC01-appb-M000003
 重み係数w3は、0より大きく1以下の値である。なお、要素関数f3i(r)の重み係数w3は、実験、シミュレーションなどにより決定する。
 要素関数f4i(s)では、まず、検索条件の属性情報と、検索条件の属性情報の上位又は同位ノードにある属性情報とを組み合わせて類似度を算出し、算出した類似度のうちの最大値を類似度sとする。属性情報が類似しているほど、利用者は類似した属性情報を選択し応答する可能性が高い。関数f4i(s)は、例えば、数8などである。
(数8)
 f4i(s)=s=maxSim(a,a
 n、m:属性情報を識別する識別子
 a :検索条件の属性情報
 a :検索条件の属性情報の上位又は同位ノードにある属性情報
 Sim(a,a):属性情報の類似度を算出する関数(例えば、cosine関数)
 組み合わせの類似度の算出は、例えば、Sim(男性,40代)=0、Sim(30代,40代)=0.8、Sim(赤,40代)=0,Sim(男性,女性)=0.2、Sim(30代,女性)=0、Sim(赤,女性)=0.3・・・のように算出する。
 次に、属性情報ごとに最大の類似度を求める。属性情報が40代であれば、max{0,0.8,0}=0.8=f4i(0.8)となる。また、属性情報が女性であれば、max{0.2,0,0.3}=0.3=f4i(0.3)となる。
 重み係数w4は、0より大きく1以下の値である。なお、要素関数f4i(s)の重み係数w4は、実験、シミュレーションなどにより決定する。
 質問生成部13は、算出したスコアに基づいて属性情報を選択し、選択した属性情報を用いて利用者に提示する質問を表す質問情報を生成する。具体的には、まず、質問生成部13は、属性情報ごとに算出したスコアを比較し、最高値のスコアに対応する属性情報を選択する。次に、質問生成部13は、選択した属性情報を用いて利用者に提示する質問を表す質問情報を生成する。
 検索条件生成部14は、質問情報に対する利用者の回答に含まれる属性情報を検索条件に反映させ、新たな検索条件を生成する。
 このように、実施形態においては、質問に対する利用者の回答に基づいて検索条件を更新し、更新した検索情報を用いて検索をするので、検索結果を効率よく取得することができる。
[システム構成]
 図4を用いて、実施形態における検索装置10の構成をより具体的に説明する。図4は、検索装置を有するシステムの一例を示す図である。
 図4に示すように、実施形態におけるシステム40は、検索装置10、ナレッジベース15、入出力装置41を有する。
 検索装置10は、例えば、CPU(Central Processing Unit)、又はFPGA(Field-Programmable Gate Array)などのプログラマブルなデバイス、又はGPU(Graphics Processing Unit)、又はそれらのうちのいずれか一つ以上を搭載した回路、サーバコンピュータ、パーソナルコンピュータ、モバイル端末などの情報処理装置である。
 入出力装置41は、ユーザインターフェースを有し、利用者が情報を入力する入力部と、利用者に画像及び音声などを出力する出力部を有する。入力部は、例えば、キーボード、マウス、タッチパネルなどを有する入力装置である。出力部は、例えば、液晶、有機EL(Electro Luminescence)、CRT(Cathode Ray Tube)を用いた画像表示装置などである。さらに、画像表示装置は、スピーカなどの音声出力装置などを備えていてもよい。なお、出力部は、プリンタなどの印刷装置でもよい。
 検索装置10が有する検索対象抽出部11、スコア算出部12、質問生成部13、検索条件生成部14、及び、ナレッジベース15については既に説明したので、これらについての説明を省略する。
[装置動作]
 実施形態における検索装置の動作について図5を用いて説明する。図5は、検索装置の動作の一例を説明するための図である。以下の説明においては、適宜図を参照する。また、実施形態では、検索装置を動作させることによって、検索方法が実施される。よって、実施形態における検索方法の説明は、以下の検索装置の動作説明に代える。
 最初に、ナレッジベース15からデータを読み込む(ステップA1)。次に、検索対象抽出部11は、検索開始時において、初期の検索条件を取得する(ステップA2)。具体的には、検索開始時のステップA2において、利用者が作成した文書情報などを、既知の文書解析ツールなどを用いて解析し、検索条件の属性情報を取得する。例えば、「性別が男性で年齢が30代ぐらいで服の色が赤です」のような文書を取得し、この文書を解析し、検索条件の属性情報として性別:男性、年齢:30代、服の色:赤などを取得する。
 また、検索条件が更新された後のステップA2において、検索対象抽出部11は、更新された検索情報を取得する。
 次に、検索対象抽出部11は、検索条件の属性情報を用いて、検索対象情報に関連付けられた属性情報を参照し、検索条件の属性情報のいずれか一つ以上と一致する検索対象情報を抽出し、これらの検索対象情報(データセット)を設定する(ステップA3)。
 次に、検索対象抽出部11は、一つ以上の属性情報を有する検索条件を用いて、画像と一つ以上の属性情報とが関連付けられた検索対象情報を有するデータセットを参照し、検索条件の属性情報と一致する属性情報を有する検索対象情報を抽出する(ステップA4)。
 スコア算出部12は、検索対象情報の数があらかじめ設定された検索結果範囲であるか否かを判定する(ステップA5)。検索対象情報の数が検索結果範囲にない場合、属性情報が階層的に分類されたナレッジベースを参照し、抽出した検索対象情報に含まれる属性情報ごとに、あらかじめ決められたスコア関数を用いてスコアを算出する。
 具体的には、スコア算出部12は、抽出により得られた検索対象情報の数が検索結果範囲より大きい場合(ステップA5:縮小スコアを算出)、下層(下位)に属性情報(葉ノード)が存在する属性情報について、縮小スコア関数を用いてスコアを算出する(ステップA6)。縮小スコア関数は、例えば、数1などである。
 次に、質問生成部13は、算出したスコアに基づいて属性情報を選択し、選択した属性情報を用いて利用者に提示する質問を表す質問情報を生成する(ステップA7)。具体的には、ステップA7において、質問生成部13は、ステップA6で属性情報ごとに算出したスコアを比較し、最高値のスコアに対応する属性情報を選択する。次に、質問生成部13は、選択した属性情報を用いて利用者に提示する質問を表す質問情報を生成する。
 また、スコア算出部12は、抽出により得られた検索対象情報の数が検索結果範囲より小さい場合(ステップA5:拡大スコアを算出)、上層(上位)の属性情報(ノード)又は同層(同位)の属性情報(ノード)の属性情報について、拡大スコア関数を用いてスコアを算出する(ステップA8)。拡大スコア関数は、例えば、数2などである。
 次に、質問生成部13は、算出したスコアに基づいて属性情報を選択し、選択した属性情報を用いて利用者に提示する質問を表す質問情報を生成する(ステップA9)。具体的には、ステップA9において、質問生成部13は、ステップA8で属性情報ごとに算出したスコアを比較し、最高値のスコアに対応する属性情報を選択する。次に、質問生成部13は、選択した属性情報を用いて利用者に提示する質問を表す質問情報を生成する。
 次に、質問生成部13は、質問情報を入出力装置41に出力する(ステップA10)。次に、検索条件生成部14は、質問情報に対する利用者の回答を表す回答情報を取得する(ステップA11)。
 次に、検索条件生成部14は、検索条件を更新するか否かを判定する(ステップA12)。検索条件を更新する場合(ステップA12:Yes)、検索条件生成部14は、属性情報を検索条件に反映させ、新たな検索条件を生成する(ステップA13)。検索条件を更新しない場合(ステップA12:No)、ステップA5に移行して再度質問情報を生成する。
 次に、検索条件生成部14は、データセットを更新する(ステップA14)。具体的には、ステップA14において、検索条件生成部14は、検索条件の更新で用いた属性情報を有する検索対象情報を抽出して、抽出した検索対象情報を新たなデータセットとする。
 その後、ステップA2の処理に移行して、更新した検索条件と、更新したデータセットとを用いて検索を継続する。そして、抽出された検索対象情報の数が検索結果範囲内であれば検索処理を終了する(ステップA5:検索終了)。
[実施形態の効果]
 以上のように実施形態によれば、質問に対する利用者の回答に基づいて検索条件を更新し、更新した検索情報を用いて検索をするので、検索結果を効率よく取得することができる。質問に対する回答と検索条件の更新により、利用者は検索対象の属性情報をより正確に把握することもできる。
[プログラム]
 実施形態におけるプログラムは、コンピュータに、図5に示すステップA1からA14を実行させるプログラムであればよい。このプログラムをコンピュータにインストールし、実行することによって、実施形態における検索装置と検索方法とを実現することができる。この場合、コンピュータのプロセッサは、検索対象抽出部11、スコア算出部12、質問生成部13、検索条件生成部14として機能し、処理を行なう。
 また、実施形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されてもよい。この場合は、例えば、各コンピュータが、それぞれ、検索対象抽出部11、スコア算出部12、質問生成部13、検索条件生成部14のいずれかとして機能してもよい。
[物理構成]
 ここで、実施形態におけるプログラムを実行することによって、検索装置を実現するコンピュータについて図6を用いて説明する。図6は、実施形態における検索装置を実現するコンピュータの一例を示す図である。
 図6に示すように、コンピュータ110は、CPU(Central Processing Unit)111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。なお、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU、又はFPGAを備えていてもよい。
 CPU111は、記憶装置113に格納された、本実施形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであってもよい。なお、記録媒体120は、不揮発性記録媒体である。
 また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置があげられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
 データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
 また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD-ROM(Compact Disk Read Only Memory)などの光学記録媒体があげられる。
 なお、実施形態における検索装置10は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、検索装置10は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。
 実施例では、人物画像を検索する場合について説明する。実施例では検索結果範囲として1以上2以下が設定されているものとする。
 検索対象抽出部11は検索条件を取得する(ステップA2)。例えば、検索条件の属性情報として性別:男性、年齢:30代、服の色:赤を取得する。
 次に、検索対象抽出部11は、検索条件の属性情報として男性、30代、赤を用いて、データセットの検索対象情報それぞれの属性情報を参照し、検索条件の属性情報と一致する属性情報を有する検索対象情報を抽出する(ステップA4)。実施例では、図3に示した検索対象情報が抽出されたものとする。
 具体的には、図3に示した検索対象情報から、検索条件(男性、30代、赤)と一致する検索対象情報を抽出する。実施例では、人物画像ID1、2、7に対応する検索対象情報が選択される。また、抽出された検索対象情報の数は3個である。
 次に、スコア算出部12は、抽出された検索対象情報の数が検索結果範囲であるか否かを判定する(ステップA5)。抽出された検索対象情報の数が3個であるので、検索結果範囲に設定された2より大きい(3>2)。したがって、縮小スコアを算出する(ステップA5:縮小スコアを算出)。
 次に、スコア算出部12は、ナレッジベース15を参照し、下位ノードにある属性情報の縮小スコアを算出する(ステップA6)。
 属性情報それぞれについて、例えば、数9の縮小スコア関数S1(i)を用いて、数10に示すスコアを算出する。
(数9)
 S1(i)=(0.3×f1i(o))+(0.3×f2i(d))+(0.4×f3i(r))
(数10)
 S1(赤) =0.3×3/4+0.3×2/3+0.4×7/9≒0.726
 S1(眼鏡)=0.3×1  +0.3×1/2+0.4×3/9≒0.583
  ・・・
 次に、質問生成部13は、算出されたスコアの中から最もスコアの高い属性情報を選択する。数10では赤のスコアが最も高いので、赤の属性情報を選択する。
 次に、質問生成部13は、赤の属性情報より下層にある真赤類、暗赤類、ライトコーラル類の属性情報を取得する。そして、質問生成部13は、利用者に提示するための、例えば、「真赤類、暗赤類、ライトコーラル類のうちどの赤に近いですか」など表示を出力部に表示させるための質問情報を生成する(ステップA7)。
 次に、質問生成部13は、質問情報を出力装置に出力して、利用者に質問を提示する(ステップA10)。質問は図7の質問表示71に示すように表示される。ただし、質問表示71に限定されるものではない。図7は、質問と回答の説明をするための図である。
 次に、検索条件生成部14は、質問情報に対する利用者の回答を表す回答情報を取得する(ステップA11)。実施例では、利用者が暗赤類と回答したものとする。回答は図7の回答表示72に示すように表示される。ただし、回答表示72に限定されるものではない。
 次に、検索条件生成部14は、検索条件を更新するかを判定する(ステップA12)。そして、検索条件を更新する場合(ステップA12:Yes)、検索条件生成部14は、検索条件の赤を暗赤に更新する(ステップA13)。なお、検索条件を更新しない場合(ステップA12:No)、ステップA5に移行して再度質問情報を生成して質問を提示する。
 次に、検索条件生成部14は、データセットを更新する(ステップA14)。実施例では、暗赤を有していない検索対象情報を除外する。図8に示すように人物ID3から6に対応する検索対象情報だけのデータセットとなる。
 次に、ステップA2に移行して、検索対象抽出部11は更新された検索条件を取得する。更新された検索条件の属性情報として性別:男性、年齢:30代、服の色:暗赤を取得する。
 次に、検索対象抽出部11は更新されたデータセットを設定する(ステップA3)。次に、検索対象抽出部11は、更新されたデータセットから、更新された検索条件(男性、30代、暗赤)と一致する属性情報を有する検索対象情報を抽出する(ステップA4)。しかし、検索対象情報が抽出されないので、抽出された検索対象情報の数は0となる。
 次に、スコア算出部12は、抽出された検索対象情報の数が検索結果範囲であるか否かを判定する(ステップA5)。抽出された検索対象情報の数が0であるので、検索結果範囲に設定された1より小さいため(0<1)、拡大スコアを算出する(ステップA5:拡大スコアを算出)。
 次に、スコア算出部12は、ナレッジベース15を参照し、上位又は同位ノードにある属性情報の拡大スコアを計算する(ステップA8)。
 属性情報それぞれについて、例えば、数11の拡大スコア関数S2(i)を用いてスコアを算出する。
(数11)
 S2(i)=(0.5×f1i(o))+(0.5×f4i(s))
 まず、要素関数f1i(o)は、男性が入力された順番が一番目なので、男性の要素関数はf1i(1)=1/2となる。また、30代が入力された順番は二番目なので、30代の要素関数はf1i(2)=2/3となる。
 次に、要素関数f4i(s)を算出する。検索条件の属性情報と、検索条件の属性情報の上位又は同位ノードにある属性情報とを組み合わせて類似度を算出する。類似度は、次のように、Sim(男性,女性)=0.2、Sim(30代,女性)=0、Sim(男性,40代)=0、Sim(30代,40代)=0.8となる。
 次に、男性と同位にある女性(男性を拡張した女性)類似度の最大値が0.2で、30代と同位にある40代(30代を拡張した40代)の類似度の最大値が0.8となる。
 次に、要素関数f1i(o)とf4i(s)の算出結果を用いて、数12に示すように属性情報ごとに拡大スコア関数S2(i)を算出する。
(数12)
 S2(女性) =0.5×1/2+0.5×0.2=0.35
 S2(40代)=0.5×2/3+0.5×0.8≒0.734
 次に、質問生成部13は、算出されたスコアの中から最もスコアの高い属性情報を選択する。数12では40代のスコアが最も高いので、40代の属性情報を選択する。
 次に、質問生成部13は40代の属性情報を取得する。そして、質問生成部13は、利用者に提示するための、例えば、「年齢は40代かもしれませんか」などの質問情報を生成する(ステップA9)。
 次に、質問生成部13は、質問情報を出力装置に出力して、利用者に質問を提示する(ステップA10)。質問は図7の質問表示73に示すように表示される。ただし、質問表示73に限定されるものではない。
 次に、検索条件生成部14は、質問情報に対する利用者の回答を表す回答情報を取得する(ステップA11)。実施例では、利用者が40代であると回答したものとする。回答は図7の回答表示74に示すように表示される。ただし、回答表示74に限定されるものではない。
 次に、検索条件生成部14は、検索条件を更新するかを判定する(ステップA12)。そして、検索条件を更新する場合(ステップA12:Yes)、検索条件生成部14は、検索条件に40代を追加する更新をする(ステップA13)。なお、検索条件を更新しない場合(ステップA12:No)、ステップA5に移行して再度質問を提示する。
 次に、検索条件生成部14は、データセットを更新する(ステップA14)。実施例では、40代の検索対象情報を追加する。ただし、40代はすでにあるので更新しない。
 次に、ステップA2に移行して、検索対象抽出部11は更新された検索条件を取得する。例えば、更新した検索条件の属性情報として性別:男性、年齢:30代又は40代、服の色:暗赤を取得する。
 次に、検索対象抽出部11はデータセットを設定する(ステップA3)。次に、検索対象抽出部11は、データセットから、検索条件(男性、30代又は40代、暗赤)と一致する検索対象情報を抽出する(ステップA4)。実施例では、人物画像ID4、5、6が選択される。また、抽出された検索対象情報の数は3個である。
 次に、スコア算出部12は、抽出した検索対象情報の数が検索結果範囲であるか否かを判定する(ステップA5)。抽出された検索対象情報の数は3個であるので、検索結果範囲に設定された2より大きい(3>2)。したがって、縮小スコアを算出する(ステップA5:縮小スコアを算出)。
 次に、スコア算出部12は、ナレッジベース15を参照し、下位ノードにある属性の縮小スコアを計算する(ステップA6)。
 属性情報それぞれについて、数9の縮小スコア関数S1(i)を用いてスコアを算出する。下位ノードにある属性情報は暗赤、眼鏡であるので、暗赤、眼鏡それぞれの要素関数f1i(o)を算出する。暗赤は三番目の入力なのでf1i(3)=3/4となる。眼鏡は入力されていないのでf1i(4又は∞)=1となる。
 次に、暗赤、眼鏡それぞれの要素関数f2i(d)を算出する。暗赤系の一階層下に葉ノードがあるのでf2i(1)=1/2となる。眼鏡の一階層下にも葉ノードがあるのでf2i(1)=1/2となる。
 次に、暗赤、眼鏡それぞれの要素関数f3i(r)を算出する。実施例では、データ数が4、下位ノード数が3、標準分割が2、1、1であるので、暗赤、眼鏡それぞれの要素関数f3i(r)は数13のようになる。
Figure JPOXMLDOC01-appb-M000004
 次に、要素関数f1i(o)とf2i(d)とf3i(r)の算出結果を用いて、数14に示すように属性情報ごとに縮小スコア関数S1(i)を算出する。
(数14)
 S1(暗赤)=0.3×3/4+0.3×1/2+0.4×1=0.775
 S1(眼鏡)=0.3×1  +0.3×1/2+0.4×1=0.85
  ・・・
 次に、質問生成部13は、算出されたスコアの中から最もスコアの高い属性情報を選択する。数14では眼鏡のスコアが最も高いので、眼鏡の属性情報を選択する。
 次に、質問生成部13は眼鏡の属性情報を取得する。そして、質問生成部13は、利用者に提示するための、例えば、「どのような眼鏡をかけていますか。無、矯正眼鏡、サングラス」などの質問情報を生成する(ステップA9)。
 次に、質問生成部13は、質問情報を出力装置に出力して、利用者に質問を提示する(ステップA10)。質問は図7の質問表示75に示すように表示される。ただし、質問表示75に限定されるものではない。
 次に、検索条件生成部14は、質問情報に対する利用者の回答を表す回答情報を取得する(ステップA11)。実施例では、利用者がサングラスと回答したものとする。回答は図7の回答表示76に示すように表示される。ただし、回答表示76に限定されるものではない。
 次に、検索条件生成部14は、検索条件を更新するかを判定する(ステップA12)。そして、検索条件を更新する場合(ステップA12:Yes)、検索条件生成部14は、検索条件にサングラスを追加する(ステップA13)。なお、検索条件を更新しない場合(ステップA12:No)、ステップA5に移行して再度質問情報を生成して質問を提示する。
 次に、検索条件生成部14は、データセットを更新する(ステップA14)。実施例では、サングラスを有していない検索対象情報を除外する。図8に示す人物ID6に対応する検索対象情報だけのデータセットとなる。図8は、検索対象情報と属性情報との関係を説明するための図である。
 次に、ステップA2に移行して、検索対象抽出部11は更新された検索条件を取得する。例えば、更新した検索条件の属性情報として性別:男性、年齢:30代又は40代、服の色:暗赤、眼鏡:サングラスを取得する。
 次に、検索対象抽出部11はデータセットを設定する(ステップA3)。次に、検索対象抽出部11は、データセットから、検索条件(男性、30代又は40代、暗赤、サングラス)と一致する検索対象情報を抽出する(ステップA4)。実施例では、人物画像ID6が選択される。また、抽出された検索対象情報の数は1個である。
 次に、スコア算出部12は、抽出した検索対象情報の数が検索結果範囲であるか否かを判定する(ステップA5)。抽出された検索対象情報の数は1個(=x)であるので、検索結果範囲(1≦x≦2)である。したがって、検索処理を終了する(ステップA5:検索終了)。
[付記]
 以上の実施形態に関し、更に以下の付記を開示する。上述した実施形態の一部又は全部は、以下に記載する(付記1)から(付記12)により表現することができるが、以下の記載に限定されるものではない。
(付記1)
 一つ以上の属性情報を有する検索条件を用いて、画像と一つ以上の属性情報とが関連付けられた検索対象情報を有するデータセットを参照し、前記検索条件の前記属性情報と一致する前記属性情報を有する検索対象情報を抽出する、検索対象抽出部と、
 抽出した前記検索対象情報の数があらかじめ設定された検索結果範囲にない場合、属性情報が階層的に分類されたナレッジベースを参照し、抽出した前記検索対象情報に含まれる属性情報ごとに、あらかじめ決められたスコア関数を用いてスコアを算出する、スコア算出部と、
 算出した前記スコアに基づいて属性情報を選択し、選択した前記属性情報を用いて利用者に提示する質問を表す質問情報を生成する、質問生成部と、
 前記質問情報に対する前記利用者の回答が表す属性情報を前記検索条件に反映させ、新たな検索条件を生成する、検索条件生成部と、
 を有する検索装置。
(付記2)
 付記1に記載の検索装置であって、
 前記スコア算出部は、抽出した前記検索対象情報の数が前記検索結果範囲より小さい場合、前記ナレッジベースを参照し、上位ノード又は同位ノードの属性情報ごとに検索結果を拡大するための拡大スコア関数を用いてスコアを算出する、
 検索装置。
(付記3)
 付記1又は2に記載の検索装置であって、
 前記スコア算出部は、抽出した前記検索対象情報の数が前記検索結果範囲より大きい場合、前記ナレッジベースを参照し、下位ノードの属性情報ごとに検索結果を縮小するための縮小スコア関数を用いてスコアを算出する、
 検索装置。
(付記4)
 付記1から3のいずれか一つに記載の検索装置であって、
 前記検索対象情報は、前記検索対象情報を識別する識別情報と、前記属性情報と、前記検索対象情報に関連する人物画像とが関連付けられた情報である、
 検索装置。
(付記5)
 一つ以上の属性情報を有する検索条件を用いて、画像と一つ以上の属性情報とが関連付けられた検索対象情報を有するデータセットを参照し、前記検索条件の前記属性情報と一致する前記属性情報を有する検索対象情報を抽出する、検索対象抽出ステップと、
 抽出した前記検索対象情報の数があらかじめ設定された検索結果範囲にない場合、属性情報が階層的に分類されたナレッジベースを参照し、抽出した前記検索対象情報に含まれる属性情報ごとに、あらかじめ決められたスコア関数を用いてスコアを算出する、スコア算出ステップと、
 算出した前記スコアに基づいて属性情報を選択し、選択した前記属性情報を用いて利用者に提示する質問を表す質問情報を生成する、質問生成ステップと、
 前記質問情報に対する前記利用者の回答が表す属性情報を前記検索条件に反映させ、新たな検索条件を生成する、検索条件生成ステップと、
 を有する検索方法。
(付記6)
 付記5に記載の検索方法であって、
 前記スコア算出ステップにおいて、抽出した前記検索対象情報の数が前記検索結果範囲より小さい場合、前記ナレッジベースを参照し、上位ノード又は同位ノードの属性情報ごとに検索結果を拡大するための拡大スコア関数を用いてスコアを算出する、
 検索方法。
(付記7)
 付記5又は6に記載の検索方法であって、
 前記スコア算出ステップにおいて、抽出した前記検索対象情報の数が前記検索結果範囲より大きい場合、前記ナレッジベースを参照し、下位ノードの属性情報ごとに検索結果を縮小するための縮小スコア関数を用いてスコアを算出する、
 検索方法。
(付記8)
 付記5から7のいずれか一つに記載の検索方法であって、
 前記検索対象情報は、前記検索対象情報を識別する識別情報と、前記属性情報と、前記検索対象情報に関連する人物画像とが関連付けられた情報である、
 検索方法。
(付記9)
 コンピュータに、
 一つ以上の属性情報を有する検索条件を用いて、画像と一つ以上の属性情報とが関連付けられた検索対象情報を有するデータセットを参照し、前記検索条件の前記属性情報と一致する前記属性情報を有する検索対象情報を抽出する、検索対象抽出ステップと、
 抽出した前記検索対象情報の数があらかじめ設定された検索結果範囲にない場合、属性情報が階層的に分類されたナレッジベースを参照し、抽出した前記検索対象情報に含まれる属性情報ごとに、あらかじめ決められたスコア関数を用いてスコアを算出する、スコア算出ステップと、
 算出した前記スコアに基づいて属性情報を選択し、選択した前記属性情報を用いて利用者に提示する質問を表す質問情報を生成する、質問生成ステップと、
 前記質問情報に対する前記利用者の回答が表す属性情報を前記検索条件に反映させ、新たな検索条件を生成する、検索条件生成ステップと、
 を実行させる命令を含む、プログラムを記録しているコンピュータ読み取り可能な記録媒体。
(付記10)
 付記9に記載のコンピュータ読み取り可能な記録媒体であって、
 前記スコア算出ステップにおいて、抽出した前記検索対象情報の数が前記検索結果範囲より小さい場合、前記ナレッジベースを参照し、上位ノード又は同位ノードの属性情報ごとに検索結果を拡大するための拡大スコア関数を用いてスコアを算出する、
 コンピュータ読み取り可能な記録媒体。
(付記11)
 付記9又は10に記載のコンピュータ読み取り可能な記録媒体であって、
 前記スコア算出ステップにおいて、抽出した前記検索対象情報の数が前記検索結果範囲より大きい場合、前記ナレッジベースを参照し、下位ノードの属性情報ごとに検索結果を縮小するための縮小スコア関数を用いてスコアを算出する、
 コンピュータ読み取り可能な記録媒体。
(付記12)
 付記9から11のいずれか一つに記載のコンピュータ読み取り可能な記録媒体であって、
 前記検索対象情報は、前記検索対象情報を識別する識別情報と、前記属性情報と、前記検索対象情報に関連する人物画像とが関連付けられた情報である、
 コンピュータ読み取り可能な記録媒体。
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 以上のように本発明によれば、質問に対する利用者の回答に基づいて検索条件を更新して、検索結果を効率よく取得することができる。本発明は、検索を効率よく実行することが必要な分野において有用である。
 10 検索装置
 11 検索対象抽出部
 12 スコア算出部
 13 質問生成部
 14 検索条件生成部
 15 ナレッジベース
 40 システム
 41 入出力装置
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス

Claims (12)

  1.  一つ以上の属性情報を有する検索条件を用いて、画像と一つ以上の属性情報とが関連付けられた検索対象情報を有するデータセットを参照し、前記検索条件の前記属性情報と一致する前記属性情報を有する検索対象情報を抽出する、検索対象抽出手段と、
     抽出した前記検索対象情報の数があらかじめ設定された検索結果範囲にない場合、属性情報が階層的に分類されたナレッジベースを参照し、抽出した前記検索対象情報に含まれる属性情報ごとに、あらかじめ決められたスコア関数を用いてスコアを算出する、スコア算出手段と、
     算出した前記スコアに基づいて属性情報を選択し、選択した前記属性情報を用いて利用者に提示する質問を表す質問情報を生成する、質問生成手段と、
     前記質問情報に対する前記利用者の回答が表す属性情報を前記検索条件に反映させ、新たな検索条件を生成する、検索条件生成手段と、
     を有する検索装置。
  2.  請求項1に記載の検索装置であって、
     前記スコア算出手段は、抽出した前記検索対象情報の数が前記検索結果範囲より小さい場合、前記ナレッジベースを参照し、上位ノード又は同位ノードの属性情報ごとに検索結果を拡大するための拡大スコア関数を用いてスコアを算出する、
     検索装置。
  3.  請求項1又は2に記載の検索装置であって、
     前記スコア算出手段は、抽出した前記検索対象情報の数が前記検索結果範囲より大きい場合、前記ナレッジベースを参照し、下位ノードの属性情報ごとに検索結果を縮小するための縮小スコア関数を用いてスコアを算出する、
     検索装置。
  4.  請求項1から3のいずれか一つに記載の検索装置であって、
     前記検索対象情報は、前記検索対象情報を識別する識別情報と、前記属性情報と、前記検索対象情報に関連する人物画像とが関連付けられた情報である、
     検索装置。
  5.  一つ以上の属性情報を有する検索条件を用いて、画像と一つ以上の属性情報とが関連付けられた検索対象情報を有するデータセットを参照し、前記検索条件の前記属性情報と一致する前記属性情報を有する検索対象情報を抽出し、
     抽出した前記検索対象情報の数があらかじめ設定された検索結果範囲にない場合、属性情報が階層的に分類されたナレッジベースを参照し、抽出した前記検索対象情報に含まれる属性情報ごとに、あらかじめ決められたスコア関数を用いてスコアを算出し、
     算出した前記スコアに基づいて属性情報を選択し、選択した前記属性情報を用いて利用者に提示する質問を表す質問情報を生成し、
     前記質問情報に対する前記利用者の回答が表す属性情報を前記検索条件に反映させ、新たな検索条件を生成する、
     検索方法。
  6.  請求項5に記載の検索方法であって、
     前記スコアの算出において、抽出した前記検索対象情報の数が前記検索結果範囲より小さい場合、前記ナレッジベースを参照し、上位ノード又は同位ノードの属性情報ごとに検索結果を拡大するための拡大スコア関数を用いてスコアを算出する、
     検索方法。
  7.  請求項5又は6に記載の検索方法であって、
     前記スコアの算出において、抽出した前記検索対象情報の数が前記検索結果範囲より大きい場合、前記ナレッジベースを参照し、下位ノードの属性情報ごとに検索結果を縮小するための縮小スコア関数を用いてスコアを算出する、
     検索方法。
  8.  請求項5から7のいずれか一つに記載の検索方法であって、
     前記検索対象情報は、前記検索対象情報を識別する識別情報と、前記属性情報と、前記検索対象情報に関連する人物画像とが関連付けられた情報である、
     検索方法。
  9.  コンピュータに、
     一つ以上の属性情報を有する検索条件を用いて、画像と一つ以上の属性情報とが関連付けられた検索対象情報を有するデータセットを参照し、前記検索条件の前記属性情報と一致する前記属性情報を有する検索対象情報を抽出させ、
     抽出した前記検索対象情報の数があらかじめ設定された検索結果範囲にない場合、属性情報が階層的に分類されたナレッジベースを参照し、抽出した前記検索対象情報に含まれる属性情報ごとに、あらかじめ決められたスコア関数を用いてスコアを算出させ、
     算出した前記スコアに基づいて属性情報を選択し、選択した前記属性情報を用いて利用者に提示する質問を表す質問情報を生成させ、
     前記質問情報に対する前記利用者の回答が表す属性情報を前記検索条件に反映させ、新たな検索条件を生成させる、
     命令を含む、プログラムを記録しているコンピュータ読み取り可能な記録媒体。
  10.  請求項9に記載のコンピュータ読み取り可能な記録媒体であって、
     前記スコアの算出において、抽出した前記検索対象情報の数が前記検索結果範囲より小さい場合、前記ナレッジベースを参照し、上位ノード又は同位ノードの属性情報ごとに検索結果を拡大するための拡大スコア関数を用いてスコアを算出させる、
     コンピュータ読み取り可能な記録媒体。
  11.  請求項9又は10に記載のコンピュータ読み取り可能な記録媒体であって、
     前記スコアの算出において、抽出した前記検索対象情報の数が前記検索結果範囲より大きい場合、前記ナレッジベースを参照し、下位ノードの属性情報ごとに検索結果を縮小するための縮小スコア関数を用いてスコアを算出させる、
     コンピュータ読み取り可能な記録媒体。
  12.  請求項9から11のいずれか一つに記載のコンピュータ読み取り可能な記録媒体であって、
     前記検索対象情報は、前記検索対象情報を識別する識別情報と、前記属性情報と、前記検索対象情報に関連する人物画像とが関連付けられた情報である、
     ことを特徴とするコンピュータ読み取り可能な記録媒体。
PCT/JP2021/013097 2021-03-26 2021-03-26 検索装置、検索方法、及びコンピュータ読み取り可能な記録媒体 WO2022201541A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2021/013097 WO2022201541A1 (ja) 2021-03-26 2021-03-26 検索装置、検索方法、及びコンピュータ読み取り可能な記録媒体
US18/278,762 US12118024B2 (en) 2021-03-26 2021-03-26 Search apparatus, search method, and computer readable recording medium
JP2023508410A JPWO2022201541A5 (ja) 2021-03-26 検索装置、検索方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/013097 WO2022201541A1 (ja) 2021-03-26 2021-03-26 検索装置、検索方法、及びコンピュータ読み取り可能な記録媒体

Publications (1)

Publication Number Publication Date
WO2022201541A1 true WO2022201541A1 (ja) 2022-09-29

Family

ID=83396733

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/013097 WO2022201541A1 (ja) 2021-03-26 2021-03-26 検索装置、検索方法、及びコンピュータ読み取り可能な記録媒体

Country Status (2)

Country Link
US (1) US12118024B2 (ja)
WO (1) WO2022201541A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10260990A (ja) * 1997-03-18 1998-09-29 Nippon Telegr & Teleph Corp <Ntt> 例示検索の高速化方法
JP2007299159A (ja) * 2006-04-28 2007-11-15 Toshiba Corp コンテンツ検索装置
JP2011107887A (ja) * 2009-11-16 2011-06-02 Toshiba Corp データベース装置およびデータベース検索方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6185560B1 (en) * 1998-04-15 2001-02-06 Sungard Eprocess Intelligance Inc. System for automatically organizing data in accordance with pattern hierarchies therein
EP1394727B1 (en) * 2002-08-30 2011-10-12 MVTec Software GmbH Hierarchical component based object recognition
US20110188759A1 (en) * 2003-06-26 2011-08-04 Irina Filimonova Method and System of Pre-Analysis and Automated Classification of Documents
US7545809B2 (en) * 2003-05-28 2009-06-09 International Business Machines Corporation Packet classification
US8484245B2 (en) * 2011-02-08 2013-07-09 Xerox Corporation Large scale unsupervised hierarchical document categorization using ontological guidance
JP2012248161A (ja) 2011-05-31 2012-12-13 Oki Electric Ind Co Ltd 対話型検索システム及びプログラム、並びに、対話シナリオ生成システム及びプログラム
US9928448B1 (en) * 2016-09-23 2018-03-27 International Business Machines Corporation Image classification utilizing semantic relationships in a classification hierarchy
US11417082B2 (en) * 2017-06-16 2022-08-16 Markable, Inc. Image processing system
GB2586265B (en) * 2019-08-15 2023-02-15 Vision Semantics Ltd Text based image search

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10260990A (ja) * 1997-03-18 1998-09-29 Nippon Telegr & Teleph Corp <Ntt> 例示検索の高速化方法
JP2007299159A (ja) * 2006-04-28 2007-11-15 Toshiba Corp コンテンツ検索装置
JP2011107887A (ja) * 2009-11-16 2011-06-02 Toshiba Corp データベース装置およびデータベース検索方法

Also Published As

Publication number Publication date
JPWO2022201541A1 (ja) 2022-09-29
US12118024B2 (en) 2024-10-15
US20240184815A1 (en) 2024-06-06

Similar Documents

Publication Publication Date Title
CN112313697B (zh) 用于生成描述角度增强的可解释的基于描述的推荐的系统和方法
US10824942B1 (en) Visual similarity and attribute manipulation using deep neural networks
US12111850B2 (en) Genealogical entity resolution system and method
KR102119253B1 (ko) 영상데이터의 추상적특성 획득 방법, 장치 및 프로그램
EP2895967A1 (en) Gesture-based search queries
US11210327B2 (en) Syntactic profiling of alphanumeric strings
WO2020255307A1 (ja) 情報処理装置、情報処理方法、および記録媒体
WO2010026900A1 (ja) 関係性発見装置、関係性発見方法および記録媒体
TWI665630B (zh) 互動式商品推薦方法以及非暫態電腦可讀取媒體
US10417798B2 (en) System and method based on sliding-scale cluster groups for precise look-alike modeling
WO2022201541A1 (ja) 検索装置、検索方法、及びコンピュータ読み取り可能な記録媒体
JP7451157B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN109062970A (zh) 用户画像的生成方法、生成设备及计算机可读存储介质
US20210271637A1 (en) Creating descriptors for business analytics applications
JP5559750B2 (ja) 広告処理装置、情報処理システム及び広告処理方法
CN109299378B (zh) 搜索结果的展示方法、装置、终端及存储介质
KR20200141387A (ko) 딥러닝 알고리즘을 이용한 영상데이터 검색방법, 장치 및 프로그램
WO2020231091A1 (en) Improved exploration for interactive recommendation systems
CN114020245A (zh) 页面构建方法及装置、设备和介质
CN112051951A (zh) 一种媒体内容展示方法、媒体内容的展示确定方法及装置
JP4871650B2 (ja) アイテムデータを送信する方法、サーバおよびプログラム
JP2017004260A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
Çiçek et al. Deterioration of pre-war and rehabilitation of post-war urbanscapes using generative adversarial networks
CN111797257B (zh) 基于词向量的图片推荐方法及相关设备
US20240346233A1 (en) Efficient generation of review summaries

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21933142

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023508410

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 18278762

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21933142

Country of ref document: EP

Kind code of ref document: A1