WO2020141745A1 - 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법 - Google Patents

집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법 Download PDF

Info

Publication number
WO2020141745A1
WO2020141745A1 PCT/KR2019/017310 KR2019017310W WO2020141745A1 WO 2020141745 A1 WO2020141745 A1 WO 2020141745A1 KR 2019017310 W KR2019017310 W KR 2019017310W WO 2020141745 A1 WO2020141745 A1 WO 2020141745A1
Authority
WO
WIPO (PCT)
Prior art keywords
recognized
data
object area
recognition
user
Prior art date
Application number
PCT/KR2019/017310
Other languages
English (en)
French (fr)
Inventor
신철호
이길재
전준리
Original Assignee
오지큐 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 오지큐 주식회사 filed Critical 오지큐 주식회사
Priority to US17/419,784 priority Critical patent/US11798268B2/en
Publication of WO2020141745A1 publication Critical patent/WO2020141745A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • G06V10/7792Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being an automated module, e.g. "intelligent oracle"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata

Definitions

  • the present invention relates to a method for improving the reliability of AI-based object recognition using mutual verification based on collective intelligence, and a structured image or an atypical image of an object to be recognized through the AI module is recognized by a server interworking with the AI module. Recognizes one or more object areas included in the included learning data, extracts object area recognition data that sets the recognized object areas, and provides the object area recognition data from the user terminal in a specified order.
  • a procedure for receiving object region selection data selected from at least one valid object region corresponding to the object to be recognized among one or more object regions included in the object region is performed for a predetermined time, and object region selection data for each user received from the user terminal
  • object region selection data for each user received from the user terminal
  • this method is a task that must be repeated every time the number of objects to be recognized increases, and it has to be a very old task, and it is time for a better solution to solve this.
  • the object of the present invention for solving the above problems is through the server interworking with the artificial intelligence module, M (M ⁇ 2) structured data corresponding to the standardized image of the object to be recognized through the artificial intelligence module Is injected into the artificial intelligence module to learn, and N (N ⁇ 2) training data including at least one image of a stereoscopic image and an atypical image of the object to be recognized is prepared, and included in the N training data Recognizing one or more object areas, extracting N object area recognition data in which the recognized object areas are set on the N learning data, and i (1 ⁇ i ⁇ U) among U(U ⁇ 2) users Provides ni (1 ⁇ ni ⁇ U) object area recognition data in a specified order to the i-th user terminal used by the user, from among the one or more object areas included in the ni object area recognition data from the i-user terminal.
  • Nj (1 ⁇ j ⁇ U, i ⁇ j) a process for receiving ni object area selection data for selecting at least one valid object area corresponding to an object to be recognized, and a jj user terminal used by a user of j(1 ⁇ j ⁇ U, i ⁇ j). At least one validity corresponding to the object to be recognized among the one or more object areas included in the nj object area recognition data from the j-th user terminal by providing 1 ⁇ nj ⁇ N) object area recognition data in a specified order.
  • a procedure for receiving nj object region selection data from which the object region has been selected is performed for a specified period of time for designated u (1 ⁇ u ⁇ U) users, and u user-specific object regions received from the u user terminals Among the v(1 ⁇ v ⁇ u) users who select the effective object area for each object area selection data by comparing and analyzing the selected data by the same object area selection data, n or more users who have selected the same effective object area ⁇ n ⁇ N) Performing a collective intelligence-based cross-validation procedure to select object area selection data to give the AI module a boost to improve the reliability of the AI module. It is to provide a method for improving artificial intelligence-based object recognition reliability using collective verification based on collective intelligence to determine and train n learning data to be received and trained, and inject the determined n learning data into the artificial intelligence module.
  • the method for improving the reliability of AI-based object recognition using the collective verification based on collective intelligence is a method executed through a server interworking with the AI module, wherein the object to be recognized is recognized through the AI module.
  • n (1 ⁇ v ⁇ u) users the user selects n (1 ⁇ n ⁇ N) object area selection data, where a user with a specified ratio or more selects the same effective object area.
  • a fifth step of determining n learning data to be trained and injected into the AI module to improve reliability of the AI module by performing a collective intelligence-based mutual verification procedure and the determined N learning data to the AI module It characterized in that it comprises a sixth step to learn by injecting.
  • AI based object using collective verification based on collective intelligence according to the present invention
  • one or more object regions recognized through the object region recognition algorithm are set on the N training data by substituting the N training data into a designated object region recognition algorithm. Extracting N object area recognition data or substituting the N learning data into the object area recognition unit of the AI module learning the M structured data to place the object area of the AI module on the N learning data. The N object area recognition data that sets one or more object areas recognized through the recognition unit are extracted, or the N learning data are substituted into the object area recognition algorithm equivalent to the object area recognition unit of the artificial intelligence module to generate the N number of object areas. And extracting N object region recognition data which set one or more object regions recognized through the object region recognition algorithm on the learning data.
  • the ni object area recognition data is in a different order from the object area recognition data included in the nj object area recognition data.
  • Object area recognition data including the provided object area recognition data, or one or more object area recognition data among the object area recognition data included in the nj object area recognition data, or object area recognition not included in the nj object area recognition data Characterized in that it comprises at least one object area recognition data among the data.
  • the method for improving the reliability of object recognition based on AI using collective verification based on collective intelligence further comprising the step of registering gender information for U users and storing them in a designated management DB, and through the AI module
  • the method further includes determining a gender relevance to the recognition object, and the fourth step is used by a user of U users who has a gender matched with the gender relevance of the recognition object. It characterized in that it comprises a step of controlling so that the specified number of object area recognition data to the user terminal is provided in a specified order.
  • AI based object using collective verification based on collective intelligence according to the present invention
  • the method further includes receiving age information for U users and storing the information in a designated management DB, and when the recognition target object to be recognized is determined through the artificial intelligence module, the recognition target object and age relatedness Further comprising the step of determining, wherein the fourth step, the user terminal of the user matching the age of the U of the object to be recognized by the age of the U-users, the user terminal of the specified number of object area recognition data provided in a specified order Characterized in that it comprises a step of controlling as much as possible
  • the method further includes determining a religious relationship with the object to be recognized, and the fourth step is used by a user of a religion among U users who matches the religious relationship of the object to be recognized. It characterized in that it comprises a step of controlling so that the specified number of object area recognition data to the user terminal is provided in a specified order.
  • the method for improving the reliability of object recognition based on AI using collective verification based on collective intelligence further comprising the step of registering the country of origin information for U users and storing it in a designated management DB,
  • the method further includes determining a degree of association between the recognition target object and a country of origin, wherein the fourth step includes, among U users, a country of origin that matches the degree of association with the country of origin It characterized in that it comprises a step of controlling to be provided according to the specified number of object area recognition data to the user terminal used by the user of the.
  • the method for improving the reliability of object recognition based on AI using collective verification based on collective intelligence further comprising the step of registering specialized field information for U users and storing them in a designated management DB,
  • the method further includes determining a degree of expertise related to the recognition target object
  • the fourth step includes: a specialty field matching the degree of expertise of the object to be recognized among U users. It characterized in that it comprises a step of controlling to be provided according to the specified number of object area recognition data to the user terminal used by the user of the.
  • obtaining location-related information of at least one of country information, regional information, and location information of a user terminal accessed through a communication network Further comprising the step of reading the location-related information of the user terminal connected to the same time zone as the step and identifying two or more user terminals belonging to the specified boundary range or distance range, the fourth step, within the specified boundary range or distance range
  • the two or more user terminals belonging to the user terminal are identified, it is characterized in that it comprises the step of controlling the object area recognition data of different recognition target objects to be provided according to the specified order.
  • obtaining location-related information of at least one of country information, regional information, and location information of a user terminal accessed through a communication network Further comprising the step of reading the location-related information of the user terminal to receive the object area recognition data of the object to be recognized in the same time zone as the step, and further comprising the step of identifying two or more user terminals within a specified boundary or distance range, the fourth In the step of controlling two or more user terminals belonging to the specified boundary range or distance range, controlling the object area recognition data of the object to be recognized to be provided according to different order in which they do not overlap with each other. It characterized in that it comprises a.
  • the N object area recognition data is analyzed through the AI module to include one included in the N object area recognition data Selecting at least one candidate object region predicted to correspond to an object to be recognized among the object regions, the size of the selected candidate object region (or the size of an object in the candidate object region), the resolution of the candidate object region, Contrast of the candidate object region (or contrast of objects in the candidate object region), brightness of the candidate object region (or brightness of objects in the candidate object region), and chromaticity of the candidate object region ) (Or calculating the recognition difficulty per N object region recognition data for recognizing the object to be recognized through human vision based on a combination of at least one or more of (or the chromaticity of the object in the candidate object region).
  • the fourth step the step of controlling the object area recognition data of the calculated cognitive difficulty of the plurality of object area recognition data to be provided to the user terminal to be included in the range of the order provided to the user terminal first Characterized
  • a reference object image including a standardized image of the object to be recognized is provided to the user terminal It characterized in that it further comprises the step of controlling to display on a certain area of the same screen as the screen displaying the object area recognition data.
  • the specified ratio is characterized in that it comprises at least one of the ratio of 51% to 100%.
  • the fifth step includes the effective object area equal to the effective object area selected by a user having a specified ratio or more for each object area selection data It characterized in that it further comprises the step of increasing the incentive score value for the specified incentive payment to the selected user.
  • AI based object using collective verification based on collective intelligence according to the present invention
  • the fifth step includes increasing a penalty score value for paying a designated penalty to a user who selects a valid object area different from a valid object area selected by a user equal to or greater than a specified ratio for each object area selection data. It characterized in that it further comprises.
  • the present invention by using collective verification based on collective intelligence, the advantage of improving the reliability of AI-based object recognition, and to increase the accuracy of object recognition, the input of expert personnel is minimized and a large number of trusted participants participate in cost and It has the advantage of saving time.
  • FIG. 1 is a diagram showing the configuration of a system for improving artificial intelligence-based object recognition reliability according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating a process of extracting object area recognition data by recognizing an object area included in learning data according to an embodiment of the present invention.
  • FIG. 3A is a diagram illustrating a process of providing object area recognition data to a user's terminal matching a gender relatedness of an object to be recognized according to an embodiment of the present invention.
  • FIG. 3B is a diagram illustrating a process of providing object area recognition data to a user's terminal that matches the age relatedness of an object to be recognized according to an embodiment of the present invention.
  • FIG. 3C is a diagram illustrating a process of providing object area recognition data to a user's terminal that matches a religious relevance of an object to be recognized according to an embodiment of the present invention.
  • FIG. 3D is a diagram illustrating a process of providing object area recognition data to a user's terminal that matches a degree of association with a country of origin of an object to be recognized according to an embodiment of the present invention.
  • FIG. 3E is a diagram illustrating a process of providing object area recognition data to a user's terminal that matches the degree of expertise related to the object to be recognized according to an embodiment of the present invention.
  • FIG. 4 is a diagram illustrating a process of providing object area recognition data to a user's terminal according to a recognition difficulty for recognizing an object to be recognized according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating a process of determining learning data for improving reliability of an AI module by analyzing object area selection data for each user received from a user terminal according to an embodiment of the present invention.
  • the method for improving the reliability of AI-based object recognition using the collective verification based on collective intelligence is a method executed through a server interworking with the AI module, wherein the object to be recognized is recognized through the AI module.
  • n (1 ⁇ v ⁇ u) users the user selects n (1 ⁇ n ⁇ N) object area selection data, where a user with a specified ratio or more selects the same effective object area.
  • a fifth step of determining n learning data to be trained and injected into the AI module to improve reliability of the AI module by performing a collective intelligence-based mutual verification procedure and the determined N learning data to the AI module It characterized in that it comprises a sixth step to learn by injecting.
  • the following examples correspond to the preferred embodiment in the form of a union among the numerous embodiments of the present invention, and the specific examples (or steps) omitting specific components (or steps) from the following examples
  • FIG. 1 is a diagram showing the configuration of a system for improving artificial intelligence-based object recognition reliability according to an embodiment of the present invention.
  • FIG. 1 is included in learning data including a structured image or an unstructured image of an object to be recognized through the AI module 170 in the server 100 interworking with the AI module 170. Recognizes one or more object areas, extracts object area recognition data that sets the recognized object areas, and provides them in the order designated by one or more user terminals 165, one included in object area recognition data from the user terminal. The procedure for receiving object area selection data receiving at least one valid object area corresponding to the object to be recognized among the object areas is performed for a predetermined time period, and the object area selection data for each user received from the user terminal 165 is processed.
  • a collective intelligence-based cross-validation procedure that selects and selects the object area selection data that is equal to or greater than a specified ratio among users who select the effective object area for each object area selection data by mutually analyzing and analyzing the same object area selection data
  • the composition of the system for injecting the AI module 170 to learn and determining the learning data to be learned by injecting it into the AI module 170 is shown.
  • the artificial intelligence module 170 for learning by receiving two or more stereotyped data corresponding to the standardized image of the object to be recognized from the server 100 and the object provided in the order specified by the server 100
  • the user terminal 165 providing the object area selection data of at least one valid object area corresponding to the object to be recognized among the one or more object areas included in the area recognition data, and the artificial intelligence module 170 ), and the function to inject two or more stereotyped data corresponding to the standardized image of the object to be recognized through the AI module 170 into the AI module 170 to learn, and the object to be recognized
  • a function of preparing two or more pieces of learning data including one or more images of a structured image and an unstructured image, and recognizing one or more object regions included in the training data, and setting the recognized object region on the training data.
  • a function of performing a procedure for receiving the object area selection data for receiving the object area selection data selected from at least one valid object area corresponding to the object to be recognized among the one or more object areas included in the user area, and a user received from the user terminal 165 Collective intelligence that selects and selects the object area selection data by a user with a specified ratio or more among the users who select the effective object area by each object area selection data by comparing and analyzing the object area selection data for each object area.
  • the key may include a server 100 having a function.
  • the server 100 may be implemented as one or more servers to have the one or more functions, and the present invention may be implemented by an embodiment implementing the server 100 or a physical server configuration or name of the server 100. It is not limited.
  • FIG. 1 illustrates the server 100 in the form of one server that communicates with the user terminal 165 and interlocks with the artificial intelligence module 170 to describe features of the present invention.
  • the user terminal 165 receives object area recognition data according to a designated order from the server 100, and at least one effective object area corresponding to an object to be recognized among one or more object areas included in the object area recognition data
  • a designated app or program for communication with the server 100 may be installed and executed.
  • the AI module 170 may be embodied as one or more servers for learning by receiving two or more structured data corresponding to a stereoscopic image of an object to be recognized from the server 100, and the AI module 170
  • the present invention is not limited by the embodiment or the physical configuration or name of the artificial intelligence module 170.
  • FIG. 1 shows the artificial intelligence module 170 in the form of one module interworking with the server 100 to describe the features of the present invention.
  • the artificial intelligence module 170 may perform learning by receiving one or more learning data determined to improve reliability of the artificial intelligence module 170 by performing a group intelligence-based mutual verification procedure through the server 100. have.
  • the AI module 170 may include an object area recognition unit 175, and the server 100 may recognize the object area of the AI module 170 learning the structured data. ) By substituting the learning data into the learning data, object area recognition data having one or more object areas recognized through the object area recognition unit 175 of the artificial intelligence module 170 may be extracted.
  • the server 100 includes a structured data injection unit 105 that injects two or more stereotyped data into the artificial intelligence module 170, and a learning data preparation unit that prepares training data including one or more images. (110), an object area recognition data extracting unit (115) for extracting object area recognition data having set an object area, and providing object area recognition data to one or more user terminals (165) and valid objects from the user terminal (165).
  • a structured data injection unit 105 that injects two or more stereotyped data into the artificial intelligence module 170
  • a learning data preparation unit that prepares training data including one or more images.
  • an object area recognition data extracting unit for extracting object area recognition data having set an object area, and providing object area recognition data to one or more user terminals (165) and valid objects from the user terminal (165).
  • Data processing unit 120 that performs a procedure of receiving an object area selection data for which a region is selected, and n learning data to be injected into the AI module 170 for training to improve reliability of the AI module 170 It may be configured to include a learning data determination unit 125 for determining, and a learning data injection unit 130 for injecting the determined learning data into the artificial intelligence module 170.
  • the server 100 the gender information, age information, religious information, country of origin information, and specialized field information for the U users registered and stored in the specified management DB 160 and artificial information, and artificial
  • a relevance determining unit 140 for determining a relevance between the object to be recognized and the gender, age, religion, country of origin, and specialized field, and a user connected through a communication network
  • the location-related information acquisition unit 145 for obtaining at least one location-related information among the country information, region information, and location information in which the terminal 165 is located, and a designated boundary by reading location-related information of a user terminal accessing the same time zone Two or more user terminals belonging to a specified boundary or distance range by checking two or more user terminals belonging to a range or distance range, or by reading location-related information of a user terminal to receive object area recognition data of the same object to be recognized at the same time. It may be configured by further comprising a terminal confirmation unit 150 for confirming.
  • the structured data injector 105 injects M (M ⁇ 2) structured data corresponding to a stereotyped image of an object to be recognized through the AI module 170 into the AI module 170 Can be learned.
  • the learning data preparation unit 110 receives and learns M (M ⁇ 2) stereotyped data through the stereotype data injection unit 105 into the artificial intelligence module 170, the stereoscopic image of the object to be recognized And N (N ⁇ 2) training data including one or more images of the atypical image may be prepared.
  • the stereotyped image may include only the image of the object to be recognized, or may include only the specified background and the image of the object to be recognized.
  • the stereoscopic image may include at least one of a front-facing photographic image of the person to be recognized and a photographic image of the person to be recognized within a specified allowable angle range based on the front-facing direction. .
  • the stereoscopic image is a photographic image for each direction of the object to be recognized, a drawing image for each direction of the object to be recognized, a 2D modeling image for each direction of the object to be recognized, and the object to be recognized. It may include at least one image of each 3D modeling image for each direction.
  • the atypical image may further include an image of at least one unrecognized object in addition to the image of the object to be recognized.
  • the atypical image may include at least one image of a modified image in which the image of the object to be recognized is transformed within a specified allowable range, and a partial image in which a unique characteristic part of the object to be recognized is exposed at a predetermined rate or more.
  • the recognition data extraction unit 115 recognizes one or more object regions included in the N learning data and then transmits the N learning data on the N learning data.
  • the N object region recognition data that set the recognized object region may be extracted.
  • the recognition data extracting unit 115 substitutes the N learning data into a designated object area recognition algorithm to recognize one or more objects recognized through the object area recognition algorithm on the N learning data. It is possible to extract N object region recognition data having a region.
  • the recognition data extraction unit 115 assigns the N learning data to the object area recognition unit 175 of the artificial intelligence module 170 that has learned the M shape data.
  • N learning data N object area recognition data having one or more object areas recognized through the object area recognition unit 175 of the AI module 170 may be extracted.
  • the recognition data extraction unit 115 substitutes the N learning data into an object area recognition algorithm equivalent to the object area recognition unit 175 of the artificial intelligence module 170, and On the N learning data, N object area recognition data having one or more object areas recognized through the object area recognition algorithm may be extracted.
  • the recognition data extraction unit 115 analyzes the N object area recognition data through the artificial intelligence module 170, and includes one or more included in the N object area recognition data. At least one candidate object region predicted to correspond to an object to be recognized is selected from the object regions, and the size of the selected candidate object region (or the size of an object in the candidate object region), the resolution of the candidate object region, and the candidate Contrast of the object region (or contrast of objects in the candidate object region), brightness of the candidate object region (or brightness of objects in the candidate object region), chromaticity of the candidate object region ( Alternatively, based on a combination of at least one or two or more of the object object region's chromaticity), the recognition difficulty per N object region recognition data for recognizing the object to be recognized through human vision may be calculated.
  • the data processing unit 120 may be used by i(1 ⁇ i ⁇ U) users among U(U ⁇ 2) users.
  • i (1 ⁇ ni ⁇ N) object area recognition data is provided in a specified order to the user terminal to the object to be recognized among the one or more object areas included in the ni object area recognition data from the i user terminal.
  • Nj (1 ⁇ nj ⁇ ) as a j-th user terminal used by the j(1 ⁇ j ⁇ U, i ⁇ j) user and a procedure for receiving ni object area selection data from which at least one effective object area is selected.
  • object area recognition data is provided in a specified order to select at least one effective object area corresponding to the object to be recognized among the one or more object areas included in the nj object area recognition data from the j-th user terminal.
  • the procedure of receiving the received nj object area selection data may be performed for a specified time for a specified number of u (1 ⁇ u ⁇ U) users.
  • ni object area recognition data provided in the order designated by the i-th user terminal includes object area recognition data provided in a different order from the object area recognition data included in the nj object area recognition data. can do.
  • the ni object area recognition data provided in the order designated by the i-th user terminal may not include one or more object area recognition data among the object area recognition data included in the nj object area recognition data. Can.
  • the ni object area recognition data provided in the order designated by the i-th user terminal may include one or more object area recognition data among object area recognition data not included in the nj object area recognition data. Can.
  • the data processing unit 120 receives the gender information for U users through the information storage unit 135 and stores it in the designated management DB 160. If the object to be recognized is recognized through 170), if the gender object and the gender object are determined through the relevance determining unit 140, the gender of the U users matching the gender relatedness of the object to be recognized It is possible to control the number of object area recognition data designated by the user terminal 165 used by the user to be provided according to a designated order. For example, when the object to be recognized is a feminine product, it is preferable to be provided to a woman. In particular, when there is no gender related to the object to be recognized, it is not necessary to provide it to a specific gender.
  • the data processing unit 120 receives the age information for U users through the information storage unit 135 and stores it in the designated management DB 160, and then the AI module ( If an object to be recognized to be recognized is determined through 170), when the object to be recognized and the age are determined through the relevance determining unit 140, an age matching the age related to the object to be recognized among U users It is possible to control the number of object area recognition data designated by the user terminal 165 used by the user to be provided according to a designated order.
  • the data processing unit 120 receives the religious information for U users through the information storage unit 135 and stores it in the designated management DB 160, and then the AI module ( If the object to be recognized is recognized through 170), if the object to be recognized and the religion related to the object are determined through the relevance determining unit 140, the U of the user matching the religion related to the object to be recognized It is possible to control the number of object area recognition data designated by the user terminal 165 used by the user to be provided according to a designated order.
  • the data processing unit 120 receives the country of origin information for U users through the information storage unit 135 and stores it in the designated management DB 160, and then the artificial intelligence module When an object to be recognized to be recognized is determined through (170), if the object to be recognized and the country of origin are determined through the relevance determining unit 140, matching among the U users is the country of origin related to the object to be recognized It is possible to control the number of object area recognition data designated by the user terminal 165 used by the user of the country of origin to be provided in a specified order.
  • the data processing unit 120 receives the specialized field information for U users through the information storage unit 135 and stores it in the designated management DB 160, and then the artificial intelligence module If the object to be recognized is recognized through 170, if the object to be recognized and the field of expertise are determined through the relevance determining unit 140, matching with the field of expertise of the object to be recognized among U users It is possible to control the number of object area recognition data designated by the user terminal 165 used by the user in the specialized field to be provided in a specified order.
  • the data processing unit 120 is at least one of the country information, local information, location information in which the user terminal 165 is accessed through a communication network through the location-related information acquisition unit 145
  • the location-related information of is obtained, and through the terminal confirmation unit 150, the location-related information of the user terminal 165 connected to the same time zone is read, and two or more user terminals 165 belonging to within a designated boundary range or distance range are checked.
  • the identified two or more user terminals 165 are controlled to provide object area recognition data of different recognition target objects in a specified order. Can.
  • the boundary range includes a boundary range on a map or an administrative area of a country or region, and the country, region, or location reads the IP address of the user terminal 165, or when the user terminal 165 is a wireless terminal.
  • the base station-based location information wirelessly connected to the wireless terminal or GPS-based location information mounted on the wireless terminal may be checked.
  • the data processing unit 120 is at least one of the country information, the local information, the location information, where the user terminal 165 is accessed through a communication network through the location-related information acquisition unit 145 The location-related information of the user is obtained, and through the terminal identification unit 150, the location-related information of the user terminal 165 to be provided with the object area recognition data of the same object to be recognized at the same time zone is read and within a specified boundary or distance range.
  • object area recognition data of the object to be recognized by the identified two or more user terminals 165 It can be controlled to be provided in a different order that does not overlap each other.
  • the calculated object area recognition data having high calculated difficulty level may be controlled to be included in a range of an order first provided to the user terminal 165.
  • the data processing unit 120 provides a reference object image including a standardized image of the object to be recognized to the user terminal 165 to display the object area recognition data. It can be controlled to display on a certain area of the same screen as. For example, it helps a user to select an object to be recognized and may induce a user to view and select a reference object even if concentration is reduced.
  • n learning data to be trained by the injection into the AI module 170 may be determined.
  • the n learning data may include at least one valid object region verified as an effective object region of the object to be recognized through the collective intelligence-based mutual verification procedure.
  • the learning data determination unit 125 incentives for payment of a designated incentive to a user who selects an effective object area equal to the effective object area selected by a user having a specified ratio or more for each object area selection data You can increase your score.
  • the learning data determination unit 125 incentives for payment of a designated incentive to a user who selects a valid object area different from a valid object area selected by a user having a specified ratio or more for each object area selection data You can refuse to increase your score.
  • the learning data determination unit 125 may provide a designated incentive to a user whose incentive score value is equal to or greater than a preset reference value.
  • the incentive may include economic benefits such as point payment, monetary payment, coupon payment, etc., and may be differentially provided according to grades according to the incentive score value.
  • the learning data determination unit 125 penalties for paying a designated penalty to a user who selects a valid object area different from a valid object area selected by a user having a specified ratio for each object area selection data.
  • the score value may be increased, and a designated penalty may be provided to a user whose penalty score value is greater than or equal to a preset reference value.
  • the penalty may include limiting participation or refusing to participate in a task in which a designated incentive is provided by selecting an effective object area included in the object area recognition data.
  • the learning data injection unit 130 determines the n learning data to be trained by injecting the artificial intelligence module 170 through the learning data determination unit 125, the determined n learning data is added to the artificial intelligence module. You can learn by injecting it.
  • FIG. 2 is a diagram illustrating a process of extracting object area recognition data by recognizing an object area included in learning data according to an embodiment of the present invention.
  • FIG. 2 shows N (N ⁇ 2) including one or more images of a structured image and an unstructured image of an object to be recognized by the server 100 interworking with the AI module 170 shown in FIG. 1.
  • One process of preparing the learning data, recognizing one or more object areas included in the N learning data, and extracting the N object area recognition data that sets the recognized object area on the N learning data may refer to and/or modify the present Figure 2 to implement various methods for the above process (for example, some steps are omitted or ordered).
  • the modified implementation method may be inferred, but the present invention includes all the inferred implementation methods, and its technical characteristics are not limited to only the implementation method illustrated in FIG. 2.
  • M(M ⁇ 2) pieces of structured data corresponding to a standardized image of an object to be recognized to be recognized by the artificial intelligence module 170 in the server 100 are artificial It can be started from the process of injecting into the intelligent module 170 to learn (200)
  • the server 100 prepares N (N ⁇ 2) training data including one or more images of a structured image and an unstructured image for the object to be recognized (205), wherein the structured image is the object to be recognized. You can include only the image of, or only the image of the specified background and the object to be recognized.
  • the stereoscopic image may include at least one of a frontal photographic image of the person to be recognized and a photographic image of the person to be recognized within a specified allowable angle range based on the frontal direction.
  • a photo image for each direction of the object to be recognized, a drawing image for each direction of the object to be recognized, a 2D modeling image for each direction of the object to be recognized, and a direction for each direction of the object to be recognized may include at least one image.
  • the atypical image may further include an image of at least one unrecognized object in addition to the image of the object to be recognized.
  • the atypical image may include at least one image of a modified image in which the image of the object to be recognized is transformed within a specified allowable range, and a partial image in which a unique characteristic part of the object to be recognized is exposed at a predetermined rate or more.
  • the server 100 recognizes one or more object areas included in the N learning data (210), and sets the recognized object area on the N learning data. Extracts object recognition data (215)
  • the server 100 recognizes N object regions in which one or more object regions recognized through the object region recognition algorithm are set on the N training data by substituting the N training data into a designated object region recognition algorithm.
  • the AI module 170 is extracted on the N learning data by substituting the N learning data into the object area recognition unit 175 of the AI module 170 that extracts data or learns the M pieces of structured data.
  • the N learning data may be extracted by setting the one or more object areas recognized through the object area recognition algorithm on the N learning data by substituting the N learning data.
  • FIG. 3A is a diagram illustrating a process of providing object area recognition data to a user's terminal matching a gender relatedness of an object to be recognized according to an embodiment of the present invention.
  • FIG. 3A shows the recognition target object to be recognized through the artificial intelligence module 170 after N object area recognition data for setting the object area recognized through the process of FIG. 2 are extracted.
  • a diagram showing an embodiment of a process of providing object area recognition data to a user terminal 165 used by a user matched with a gender relatedness of a target object a person having ordinary knowledge in the technical field to which the present invention belongs.
  • various implementation methods for the above process for example, an implementation method in which some steps are omitted or an order is changed
  • the present invention provides all the implementation methods that are inferred. It is made, and the technical features are not limited to only the implementation method shown in FIG. 3A.
  • the illustrated embodiment recognizes one or more object areas included in the N learning data in the server 100 through the process of FIG. 2 and recognizes the recognized object areas on the N learning data. After extracting the N object area recognition data having set the, it may be started from the process of receiving gender information for U users and storing it in the designated management DB 160 (300a).
  • the server 100 determines a gender association with the recognition target object (310a).
  • the server 100 identifies a user whose gender matches the gender relatedness of the object to be recognized among U users (315a), and recognizes the number of object areas specified by the user terminal 165 used by the identified user. Control so that data is provided in a specified order (320a)
  • FIG. 3B is a diagram illustrating a process of providing object area recognition data to a user's terminal matching an age-related degree of an object to be recognized according to an embodiment of the present invention.
  • FIG. 3B shows the recognition of an object to be recognized through the artificial intelligence module 170 after N object area recognition data for setting the object area recognized through the process of FIG. 2 is extracted.
  • a diagram showing an embodiment of a process for providing object area recognition data to a user terminal 165 used by a user matching the age-relatedness of the target object a person having ordinary knowledge in the technical field to which the present invention belongs.
  • various implementation methods for the above process for example, an implementation method in which some steps are omitted or an order is changed
  • the present invention provides all the implementation methods that are inferred. It is made, and the technical features are not limited to only the implementation method shown in FIG. 3B.
  • the illustrated embodiment recognizes one or more object areas included in the N learning data in the server 100 through the process of FIG. 2 and recognizes the recognized object areas on the N learning data. After extracting the N object area recognition data having set the, it may start from the process of receiving age information for U users and storing it in the designated management DB 160 (300b).
  • the server 100 determines an age relationship with the recognition target object (310b).
  • the server 100 identifies a user having an age matching the age relatedness of the object to be recognized among U users (315b), and recognizes the number of object areas specified by the user terminal 165 used by the identified user. Control so that data is provided according to a specified order (320b)
  • FIG. 3C is a diagram illustrating a process of providing object area recognition data to a user's terminal that matches a religious relevance of an object to be recognized according to an embodiment of the present invention.
  • FIG. 3C shows the recognition target object to be recognized through the artificial intelligence module 170 after the N object area recognition data for setting the object area recognized through the process of FIG. 2 are extracted.
  • FIG. 3C shows the recognition target object to be recognized through the artificial intelligence module 170 after the N object area recognition data for setting the object area recognized through the process of FIG. 2 are extracted.
  • FIG. 3C shows the recognition target object to be recognized through the artificial intelligence module 170 after the N object area recognition data for setting the object area recognized through the process of FIG. 2 are extracted.
  • the illustrated embodiment recognizes one or more object areas included in the N learning data in the server 100 through the process of FIG. 2 and recognizes the recognized object areas on the N learning data.
  • the N object region recognition data After the N object region recognition data is set to be extracted, it can be started from the process of registering religious information for U users and storing them in the designated management DB 160 (300c).
  • the server 100 determines a religious association with the recognition object (310c).
  • the server 100 identifies a user of a religion that matches the religious relevance of the object to be recognized among U users (315c), and recognizes the number of object areas designated by the user terminal 165 used by the identified user Control so that data is provided in a specified order (320c)
  • FIG. 3D is a diagram illustrating a process of providing object area recognition data to a user's terminal matching a degree of origin country relevance of an object to be recognized according to an embodiment of the present invention.
  • FIG. 3D shows the recognition of an object to be recognized through the artificial intelligence module 170 after N object area recognition data for setting the object area recognized through the process of FIG. 2 are extracted.
  • various implementation methods for example, some steps are omitted or the order is changed
  • the present invention is based on all implementation methods that are inferred. It is made, including, the technical features are not limited to only the implementation method shown in this figure 3d.
  • the illustrated embodiment recognizes one or more object areas included in the N learning data in the server 100 through the process of FIG. 2 and recognizes the recognized object areas on the N learning data.
  • the server 100 determines the degree of association between the recognition object and the country of origin (310d).
  • the server 100 identifies a user of a country of origin matching the origin country relatedness of the object to be recognized among U users (315d), and the number of objects designated by the user terminal 165 used by the identified user Control so that the area recognition data is provided according to a specified order (320d)
  • FIG. 3e is a diagram illustrating a process of providing object area recognition data to a user's terminal that matches the degree of expertise related to the object to be recognized according to an embodiment of the present invention.
  • FIG. 3E shows the recognition target object to be recognized through the artificial intelligence module 170 after N object area recognition data for setting the object area recognized through the process of FIG. 2 are extracted.
  • various implementation methods for example, some steps are omitted or an order is changed
  • the present invention provides all the inferred implementation methods. It is made to include, and the technical features are not limited to only the implementation method shown in FIG. 3E.
  • the illustrated embodiment recognizes one or more object areas included in the N learning data in the server 100 through the process of FIG. 2 and recognizes the recognized object areas on the N learning data. After extracting the N object area recognition data that has been set, it can be started from the process of registering the specialized field information for the U users and storing them in the designated management DB 160 (300e).
  • the server 100 determines a degree of expertise related to the recognition target object (310e).
  • the server 100 identifies a user in a specialized field that matches the specialty relatedness of the object to be recognized among U users (315e), and the number of objects designated by the user terminal 165 used by the identified user Control so that the area recognition data is provided according to a specified order (320e)
  • FIG. 4 is a diagram illustrating a process of providing object area recognition data to a user's terminal according to a recognition difficulty for recognizing an object to be recognized according to an embodiment of the present invention.
  • FIG. 4 shows the properties of a candidate object region predicted to correspond to an object to be recognized (eg, size, size) after the N object region recognition data, which set the object region recognized through the process of FIG. 2, are extracted.
  • FIG. 4 shows the properties of a candidate object region predicted to correspond to an object to be recognized (eg, size, size) after the N object region recognition data, which set the object region recognized through the process of FIG. 2, are extracted.
  • FIG. 4 shows the properties of a candidate object region predicted to correspond to an object to be recognized (eg, size, size) after the N object region recognition data, which set the object region recognized through the process of FIG. 2, are extracted.
  • the illustrated embodiment recognizes one or more object areas included in the N learning data in the server 100 through the process of FIG. 2 and recognizes the recognized object areas on the N learning data. After extracting the N object area recognition data having set the, it may be started from the process of analyzing the N object area recognition data through the artificial intelligence module 170 in the server 100 (400).
  • the server 100 selects at least one candidate object region predicted to correspond to an object to be recognized from the one or more object regions included in the N object region recognition data through the analysis (405).
  • the server 100 is the size of the selected candidate object area (or the size of the object in the candidate object area), the resolution of the candidate object area, the contrast of the candidate object area (or the candidate object area) At least one of contrast of my object), brightness of the candidate object area (or brightness of the object in the candidate object area), and chromaticity of the candidate object area (or chromaticity of the object in the candidate object area) Or, based on a combination of two or more, the recognition difficulty per N object area recognition data for recognizing the object to be recognized through human vision is calculated (410).
  • the server 100 may recognize the object area recognition data having the calculated high recognition difficulty among the plurality of object area recognition data to be provided to the user terminal 165. It is controlled to be included in the range of the order first provided with (165) (415)
  • FIG. 5 is a diagram illustrating a process of determining learning data for improving reliability of an AI module by analyzing object area selection data for each user received from a user terminal according to an embodiment of the present invention.
  • FIG. 5 provides object area recognition data to the user terminal 165 through the processes of FIGS. 3A, 3B, 3C, 3D, 3E, and 4, and then the user terminal 165 A diagram showing an embodiment of a process of determining learning data to be trained by injecting into the AI module 170 for improving reliability of the AI module 170 by using object area selection data for each user received from , If the person of ordinary skill in the art to which the present invention pertains, refer to and/or modify this figure 5 to perform various implementation methods for the process (eg, an implementation method in which some steps are omitted or an order is changed). Although it can be inferred, the present invention includes all the inferred implementation methods, and its technical characteristics are not limited to only the implementation methods illustrated in FIG. 5.
  • the illustrated embodiment provides the object area recognition data to the user terminal 165 through the processes of FIGS. 3A, 3B, 3C, 3D, 3E, 4, and then the server ( In step 100), u user objects 165 may be started from the process of receiving u user-specific object area selection data (500).
  • the server 100 compares and analyzes the received object area selection data for each of the u users for the same object area selection data (505), and selects an effective object area for each object area selection data v(1 ⁇ v A collective intelligence-based cross-verification procedure is performed to select n (1 ⁇ n ⁇ N) object region selection data in which ⁇ u) users of a specified ratio or more have selected the same effective object region (510)
  • the server 100 determines the n learning data to be trained by injecting it into the AI module 170 to improve the reliability of the AI module 170 (515), and determines the determined n learning data.
  • the artificial intelligence module is injected and trained (520).

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법에 관한 것으로, 인공지능모듈과 연동하는 서버에서 상기 인공지능모듈을 통해 인식할 인식 대상 객체에 대한 정형 이미지나 비정형 이미지를 포함하는 학습 데이터에 포함된 하나 이상의 객체영역을 인식하고, 상기 인식된 객체영역을 설정한 객체영역 인식 데이터를 추출하여 하나 이상의 사용자 단말기로 지정된 순서에 따라 제공하여, 상기 사용자 단말기로부터 객체영역 인식 데이터에 포함된 하나 이상의 객체영역 중 상기 인식 대상 객체에 대응하는 적어도 하나의 유효 객체영역을 선택받은 객체영역 선택 데이터를 수신하는 절차를 일정 시간동안 수행하고, 사용자 단말기로부터 수신된 사용자 별 객체영역 선택 데이터를 동일한 객체영역 선택 데이터 별로 상호 비교 분석하여 각각의 객체영역 선택 데이터 별 유효 객체영역을 선택한 사용자 중 지정된 비율 이상의 사용자가 동일한 유효 객체영역을 선택한 객체영역 선택 데이터를 선별하는 집단 지성 기반의 상호 검증 절차를 수행하여 상기 인공지능모듈의 신뢰도 향상을 위해 상기 인공지능모듈에 주입하여 학습시킬 학습 데이터를 결정하여 상기 인공지능모듈에 주입하여 학습시키는 방법에 관한 것이다.

Description

집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법
본 발명은 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법에 관한 것으로, 인공지능모듈과 연동하는 서버에서 상기 인공지능모듈을 통해 인식할 인식 대상 객체에 대한 정형 이미지나 비정형 이미지를 포함하는 학습 데이터에 포함된 하나 이상의 객체영역을 인식하고, 상기 인식된 객체영역을 설정한 객체영역 인식 데이터를 추출하여 하나 이상의 사용자 단말기로 지정된 순서에 따라 제공하여, 상기 사용자 단말기로부터 객체영역 인식 데이터에 포함된 하나 이상의 객체영역 중 상기 인식 대상 객체에 대응하는 적어도 하나의 유효 객체영역을 선택받은 객체영역 선택 데이터를 수신하는 절차를 일정 시간동안 수행하고, 사용자 단말기로부터 수신된 사용자 별 객체영역 선택 데이터를 동일한 객체영역 선택 데이터 별로 상호 비교 분석하여 각각의 객체영역 선택 데이터 별 유효 객체영역을 선택한 사용자 중 지정된 비율 이상의 사용자가 동일한 유효 객체영역을 선택한 객체영역 선택 데이터를 선별하는 집단 지성 기반의 상호 검증 절차를 수행하여 상기 인공지능모듈의 신뢰도 향상을 위해 상기 인공지능모듈에 주입하여 학습시킬 학습 데이터를 결정하여 상기 인공지능모듈에 주입하여 학습시키는 방법에 관한 것이다.
일반적인 딥러닝 기술에서 Object를 인식하기 위해서는 연구원이나 개발자들이 인식하고자 하는 Object를 꾸준히 학습시켜주는 방법을 사용하고 있다. 예를 들어 “전등”을 인식하도록 학습하기 위해 연구원들은 우선 기계에게 다양한 전등모양을 학습 시키고 다시 수천장의 전등이 포함된 사진을 기계에게 학습 시켜 결과를 보고 오류를 잡아주는 식으로 “전등” 인식 학습을 시키는 것이 보편적이었다.
그러나, 이러한 방식은 인식하려는 Object가 늘어날 때마다 계속 반복해야 되는 작업으로 매우 지난한 작업일 수 밖에 없었으며, 이를 해결하기 위한 보다 나은 방안이 필요한 시점이다.
상기와 같은 문제점을 해소하기 위한 본 발명의 목적은, 인공지능모듈과 연동하는 서버를 통해, 인공지능모듈을 통해 인식할 인식 대상 객체의 정형화된 이미지에 대응하는 M(M≥2)개의 정형 데이터를 상기 인공지능모듈에 주입하여 학습시키고, 상기 인식 대상 객체에 대한 정형 이미지와 비정형 이미지 중 하나 이상의 이미지를 포함하는 N(N≥2)개의 학습 데이터를 준비하여, 상기 N개의 학습 데이터에 포함된 하나 이상의 객체영역을 인식하여 상기 N개의 학습 데이터 상에 상기 인식된 객체영역을 설정한 N개의 객체영역 인식 데이터를 추출하고, U(U≥2)명의 사용자 중 제i(1≤i≤U) 사용자가 이용하는 제i 사용자 단말기로 ni(1≤ni≤U)개의 객체영역 인식 데이터를 지정된 순서에 따라 제공하여 상기 제i 사용자 단말기로부터 상기 ni개의 객체영역 인식 데이터에 포함된 하나 이상의 객체영역 중 상기 인식 대상 객체에 대응하는 적어도 하나의 유효 객체영역을 선택받은 ni개의 객체영역 선택 데이터를 수신하는 절차와, 제j(1≤j≤U, i≠j) 사용자가 이용하는 제j 사용자 단말기로 nj(1≤nj≤N)개의 객체영역 인식 데이터를 지정된 순서에 따라 제공하여 상기 제j 사용자 단말기로부터 상기 nj개의 객체영역 인식 데이터에 포함된 하나 이상의 객체영역 중 상기 인식 대상 객체에 대응하는 적어도 하나의 유효 객체 영역을 선택받은 nj개의 객체영역 선택 데이터를 수신하는 절차를 지정된 u(1≤u≤U)명의 사용자를 대상으로 일정 시간 동안 수행하여, 상기 u개의 사용자 단말기로부터 수신된 u명의 사용자 별 객체영역 선택 데이터를 동일한 객체영역 선택 데이터 별로 상호 비교 분석하여 각각의 객체영역 선택 데이터 별 유효 객체영역을 선택한 v(1≤v≤u)명의 사용자 중 지정된 비율 이상의 사용자가 동일한 유효 객체영역을 선택한 n(1≤n≤N)개의 객체영역 선택 데이터를 선별하는 집단 지성 기반의 상호 검증 절차를 수행하여 상기 인공지능모듈의 신뢰도 향상을 위해 상기 인공지능모듈에 주입하여 학습시킬 n개의 학습 데이터를 결정하고, 상기 결정된 n개의 학습 데이터를 상기 인공지능모듈에 주입하여 학습시키는 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법을 제공함에 있다.
본 발명에 따른 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법은, 인공지능모듈과 연동하는 서버를 통해 실행되는 방법에 있어서, 인공지능모듈을 통해 인식할 인식 대상 객체의 정형화된 이미지에 대응하는 M(M≥2)개의 정형 데이터를 상기 인공지능모듈에 주입하여 학습시키는 제1 단계와 상기 인식 대상 객체에 대한 정형 이미지와 비정형 이미지 중 하나 이상의 이미지를 포함하는 N(N≥2)개의 학습 데이터를 준비하는 제2 단계와 상기 N개의 학습 데이터에 포함된 하나 이상의 객체영역을 인식하여 상기 N개의 학습 데이터 상에 상기 인식된 객체영역을 설정한 N개의 객체영역 인식 데이터를 추출하는 제3 단계와 U(U≥2)명의 사용자 중 제i(1≤i≤U) 사용자가 이용하는 제i 사용자 단말기로 ni(1≤ni≤N)개의 객체영역 인식 데이터를 지정된 순서에 따라 제공하여 상기 제i 사용자 단말기로부터 상기 ni개의 객체영역 인식 데이터에 포함된 하나 이상의 객체영역 중 상기 인식 대상 객체에 대응하는 적어도 하나의 유효 객체영역을 선택받은 ni개의 객체영역 선택 데이터를 수신하는 절차와, 제j(1≤j≤U, i≠j) 사용자가 이용하는 제j 사용자 단말기로 nj(1≤nj≤N)개의 객체영역 인식 데이터를 지정된 순서에 따라 제공하여 상기 제j 사용자 단말기로부터 상기 nj개의 객체영역 인식 데이터에 포함된 하나 이상의 객체영역 중 상기 인식 대상 객체에 대응하는 적어도 하나의 유효 객체영역을 선택받은 nj개의 객체영역 선택 데이터를 수신하는 절차를 지정된 u(1≤u≤U)명의 사용자를 대상으로 일정 시간 동안 수행하는 제4 단계와 상기 u개의 사용자 단말기로부터 수신된 u명의 사용자 별 객체영역 선택 데이터를 동일한 객체영역 선택 데이터 별로 상호 비교 분석하여 각각의 객체영역 선택 데이터 별 유효 객체영역을 선택한 v(1≤v≤u)명의 사용자 중 지정된 비율 이상의 사용자가 동일한 유효 객체영역을 선택한 n(1≤n≤N)개의 객체영역 선택 데이터를 선별하는 집단 지성 기반의 상호 검증 절차를 수행하여 상기 인공지능모듈의 신뢰도 향상을 위해 상기 인공지능모듈에 주입하여 학습시킬 n개의 학습 데이터를 결정하는 제5 단계 및 상기 결정된 n개의 학습 데이터를 상기 인공지능모듈에 주입하여 학습시키는 제6 단계를 포함하는 것을 특징으로 한다.
본 발명에 따른 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인
식 신뢰도 향상 방법에 있어서, 상기 제3 단계는, 지정된 객체영역 인식 알고리즘에 상기 N개의 학습 데이터를 대입하여 상기 N개의 학습 데이터 상에 상기 객체영역 인식 알고리즘을 통해 인식된 하나 이상의 객체영역을 설정한 N개의 객체영역 인식 데이터를 추출하거나, 또는 상기 M개의 정형 데이터를 학습한 인공지능모듈의 객체영역 인식부에 상기 N개의 학습 데이터를 대입하여 상기 N개의 학습 데이터 상에 상기 인공지능모듈의 객체영역 인식부를 통해 인식된 하나 이상의 객체영역을 설정한 N개의 객체영역 인식 데이터를 추출하거나, 또는 상기 인공지능모듈의 객체 영역 인식부와 동등한 객체영역 인식 알고리즘에 상기 N개의 학습 데이터를 대입하여 상기 N개의 학습 데이터 상에 상기 객체영역 인식 알고리즘을 통해 인식된 하나 이상의 객체영역을 설정한 N개의 객체영역 인식 데이터를 추출하는 단계를 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법에 있어서, 상기 ni개의 객체영역 인식 데이터는, 상기 nj개의 객체영역 인식 데이터에 포함된 객체영역 인식 데이터와 다른 순서로 제공되는 객체영역 인식 데이터를 포함하거나, 또는 상기 nj개의 객체영역 인식 데이터에 포함된 객체영역 인식 데이터 중 하나 이상의 객체영역 인식 데이터를 미포함하거나, 또는 상기 nj개의 객체영역 인식 데이터에 미포함된 객체영역 인식 데이터 중 하나 이상의 객체영역 인식 데이터를 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법에 있어서, U명의 사용자에 대한 성별 정보를 등록받아 지정된 관리DB에 저장하는 단계를 더 포함하고, 인공지능모듈을 통해 인식할 인식 대상 객체가 결정된 경우 상기 인식 대상 객체와 성별 관련도를 결정하는 단계를 더 포함하며, 상기 제4 단계는, U명의 사용자 중 상기 인식 대상 객체의 성별 관련도와 매칭되는 성별의 사용자가 이용하는 사용자 단말기로 지정된 개수의 객체영역 인식데이터가 지정된 순서에 따라 제공되도록 제어하는 단계를 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인
식 신뢰도 향상 방법에 있어서, U명의 사용자에 대한 연령 정보를 등록받아 지정된 관리DB에 저장하는 단계를 더 포함하고, 인공지능모듈을 통해 인식할 인식 대상 객체가 결정된 경우 상기 인식 대상 객체와 연령 관련도를 결정하는 단계를 더 포함하며, 상기 제4 단계는, U명의 사용자 중 상기 인식 대상 객체의 연령 관련도와 매칭되는 연령의 사용자가 이용하는 사용자 단말기로 지정된 개수의 객체영역 인식데이터가 지정된 순서에 따라 제공되도록 제어하는 단계를 포함하여 이루어지는 것을 특징으로 한다
본 발명에 따른 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법에 있어서, U명의 사용자에 대한 종교 정보를 등록받아 지정된 관리DB에 저장하는 단계를 더 포함하고, 인공지능모듈을 통해 인식할 인식 대상 객체가 결정된 경우 상기 인식 대상 객체와 종교 관련도를 결정하는 단계를 더 포함하며, 상기 제4 단계는, U명의 사용자 중 상기 인식 대상 객체의 종교 관련도와 매칭되는 종교의 사용자가 이용하는 사용자 단말기로 지정된 개수의 객체영역 인식데이터가 지정된 순서에 따라 제공되도록 제어하는 단계를 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법에 있어서, U명의 사용자에 대한 출신국가 정보를 등록받아 지정된 관리DB에 저장하는 단계를 더 포함하고, 인공지능모듈을 통해 인식할 인식 대상 객체가 결정된 경우 상기 인식 대상 객체와 출신국가 관련도를 결정하는 단계를더 포함하며, 상기 제4 단계는, U명의 사용자 중 상기 인식 대상 객체의 출신국가 관련도와 매칭되는 출신국가의 사용자가 이용하는 사용자 단말기로 지정된 개수의 객체영역 인식 데이터가 지정된 순서에 따라 제공되도록 제어하는 단계를 포함하여이루어지는 것을 특징으로 한다.
본 발명에 따른 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법에 있어서, U명의 사용자에 대한 전문분야 정보를 등록받아 지정된 관리DB에 저장하는 단계를 더 포함하고, 인공지능모듈을 통해 인식할 인식 대상 객체가 결정된 경우 상기 인식 대상 객체와 전문분야 관련도를 결정하는 단계를 더 포함하며, 상기 제4 단계는, U명의 사용자 중 상기 인식 대상 객체의 전문분야 관련도와 매칭되는 전문분야의 사용자가 이용하는 사용자 단말기로 지정된 개수의 객체영역 인식 데이터가 지정된 순서에 따라 제공되도록 제어하는 단계를 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법에 있어서, 통신망을 통해 접속한 사용자 단말기가 위치한 국가정보, 지역정보, 위치정보 중 적어도 하나의 위치관련정보를 획득하는 단계와 동일한 시간대에 접속한 사용자 단말기의 위치관련정보를 판독하여 지정된 경계범위나 거리범위 이내에 속한 둘 이상의 사용자 단말기를 확인하는 단계를 더 포함하며, 상기 제4 단계는, 지정된 경계범위나 거리범위 이내에 속한 둘 이상의 사용자 단말기를 확인한 경우 상기 확인된 둘 이상의 사용자 단말기로 서로 다른 인식 대상 객체의 객체영역 인식 데이터가 지정된 순서에 따라 제공되도록 제어하는 단계를 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법에 있어서, 통신망을 통해 접속한 사용자 단말기가 위치한 국가정보, 지역정보, 위치정보 중 적어도 하나의 위치관련정보를 획득하는 단계와 동일한 시간대에 동일한 인식 대상 객체의 객체영역 인식 데이터를 제공받을 사용자단말기의 위치관련정보를 판독하여 지정된 경계범위나 거리범위 이내에 속한 둘 이상의 사용자 단말기를 확인하는 단계를 더 포함하며, 상기 제4 단계는, 지정된 경계범위나 거리범위 이내에 속한 둘 이상의 사용자 단말기를 확인한 경우 상기 확인된 둘 이상의 사용자 단말기로 상기 인식 대상 객체의 객체영역 인식 데이터가 상호 중복되지 않는 서로 다른 순서에 따라 제공되도록 제어하는 단계를 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법에 있어서, 상기 인공지능모듈을 통해 상기 N개의 객체영역 인식 데이터를 분석하여 상기 N개의 객체영역 인식 데이터에 포함된 하나 이상의 객체영역 중 인식 대상 객체에 대응할 것으로 예측되는 적어도 하나의 후보 객체영역을 선별하는 단계와 상기 선별된 후보 객체영역의 크기(또는 상기 후보 객체영역 내 객체의 크기), 상기 후보 객체영역의 해상도, 상기 후보 객체영역의 대비(Contrast)(또는 상기 후보 객체영역 내 객체의 대비), 상기 후보 객체영역의 명도(Brightness)(또는 상기 후보 객체영역 내 객체의 명도), 상기 후보 객체영역의 색도(Chromaticity)(또는 상기 후보 객체영역 내 객체의 색도) 중 적어도 하나 또는 둘 이상의 조합을 기준으로 인간의 시각을 통해 상기 인식 대상 객체를 인지하기 위한 N개의 객체영역 인식 데이터 별 인지 난이도를 산출하는 단계를 더 포함하며, 상기 제4 단계는, 사용자 단말기로 제공할 복수의 객체영역 인식 데이터 중 상기 산출된 인지 난이도가 높은 객체영역 인식 데이터가 상기 사용자 단말기로 먼저 제공되는 순서의 범위에 포함되도록 제어하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법에 있어서, 상기 제4 단계는, 상기 인식 대상 객체의 정형화된 이미지를 포함하는 기준 객체 이미지를 상기 사용자 단말기로 제공하여 상기 객체영역 인식 데이터를 표시하는 화면과 동일한 화면의 일정 영역에 표시하도록 제어하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법에 있어서, 상기 지정된 비율은, 51% 내지 100%의 비율 중 적어도 하나의 비율을 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법에 있어서, 상기 제5 단계는, 각각의 객체영역 선택 데이터 별로 지정된 비율 이상의 사용자가 선택한 유효 객체영역과 동일한 유효 객체영역을 선택한 사용자에게 지정된 인센티브 지급을 위한 인센티브 점수값을 증가시키는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인
식 신뢰도 향상 방법에 있어서, 상기 제5 단계는, 각각의 객체영역 선택 데이터 별로 지정된 비율 이상의 사용자가 선택한 유효 객체영역과 다른 유효 객체영역을 선택한 사용자에게 지정된 패널티 지급을 위한 패널티 점수값을 증가시키는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따르면, 집단 지성 기반의 상호 검증을 이용하여 인공지능 기반 객체인식 신뢰도를 향상시킬 수 있는 이점과, Object 인식의 정확도를 올리기 위해 전문 인력 투입이 최소화 되고 신뢰 할 수 있는 다수가 참여해 비용 및 시간을 줄일 수 있는 이점이 있다.
도 1은 본 발명의 실시 방법에 따라 인공지능 기반 객체인식 신뢰도를 향상시키는 시스템의 구성을 도시한 도면이다.
도 2는 본 발명의 실시 방법에 따라 학습 데이터에 포함된 객체영역을 인식하여 객체영역 인식 데이터를 추출하는 과정을 도시한 도면이다.
도 3a는 본 발명의 실시 방법에 따라 인식 대상 객체의 성별 관련도와 매칭되는 사용자의 단말기로 객체영역 인식 데이터를 제공하는 과정을 도시한 도면이다.
도 3b는 본 발명의 실시 방법에 따라 인식 대상 객체의 연령 관련도와 매칭되는 사용자의 단말기로 객체영역 인식 데이터를 제공하는 과정을 도시한 도면이다.
도 3c는 본 발명의 실시 방법에 따라 인식 대상 객체의 종교 관련도와 매칭되는 사용자의 단말기로 객체영역 인식 데이터를 제공하는 과정을 도시한 도면이다.
도 3d는 본 발명의 실시 방법에 따라 인식 대상 객체의 출신국가 관련도와 매칭되는 사용자의 단말기로 객체영역 인식 데이터를 제공하는 과정을 도시한 도면이다.
도 3e는 본 발명의 실시 방법에 따라 인식 대상 객체의 전문분야 관련도와 매칭되는 사용자의 단말기로 객체영역 인식 데이터를 제공하는 과정을 도시한 도면이다.
도 4는 본 발명의 실시 방법에 따라 인식 대상 객체를 인지하기 위한 인지 난이도에 따라 사용자의 단말기로 객체영역 인식 데이터를 제공하는 과정을 도시한 도면이다.
도 5는 본 발명의 실시 방법에 따라 사용자 단말기로부터 수신된 사용자 별 객체영역 선택 데이터를 분석하여 인공지능모듈의 신뢰도 향상을 위한 학습 데이터를 결정하는 과정을 도시한 도면이다.
본 발명에 따른 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법은, 인공지능모듈과 연동하는 서버를 통해 실행되는 방법에 있어서, 인공지능모듈을 통해 인식할 인식 대상 객체의 정형화된 이미지에 대응하는 M(M≥2)개의 정형 데이터를 상기 인공지능모듈에 주입하여 학습시키는 제1 단계와 상기 인식 대상 객체에 대한 정형 이미지와 비정형 이미지 중 하나 이상의 이미지를 포함하는 N(N≥2)개의 학습 데이터를 준비하는 제2 단계와 상기 N개의 학습 데이터에 포함된 하나 이상의 객체영역을 인식하여 상기 N개의 학습 데이터 상에 상기 인식된 객체영역을 설정한 N개의 객체영역 인식 데이터를 추출하는 제3 단계와 U(U≥2)명의 사용자 중 제i(1≤i≤U) 사용자가 이용하는 제i 사용자 단말기로 ni(1≤ni≤N)개의 객체영역 인식 데이터를 지정된 순서에 따라 제공하여 상기 제i 사용자 단말기로부터 상기 ni개의 객체영역 인식 데이터에 포함된 하나 이상의 객체영역 중 상기 인식 대상 객체에 대응하는 적어도 하나의 유효 객체영역을 선택받은 ni개의 객체영역 선택 데이터를 수신하는 절차와, 제j(1≤j≤U, i≠j) 사용자가 이용하는 제j 사용자 단말기로 nj(1≤nj≤N)개의 객체영역 인식 데이터를 지정된 순서에 따라 제공하여 상기 제j 사용자 단말기로부터 상기 nj개의 객체영역 인식 데이터에 포함된 하나 이상의 객체영역 중 상기 인식 대상 객체에 대응하는 적어도 하나의 유효 객체영역을 선택받은 nj개의 객체영역 선택 데이터를 수신하는 절차를 지정된 u(1≤u≤U)명의 사용자를 대상으로 일정 시간 동안 수행하는 제4 단계와 상기 u개의 사용자 단말기로부터 수신된 u명의 사용자 별 객체영역 선택 데이터를 동일한 객체영역 선택 데이터 별로 상호 비교 분석하여 각각의 객체영역 선택 데이터 별 유효 객체영역을 선택한 v(1≤v≤u)명의 사용자 중 지정된 비율 이상의 사용자가 동일한 유효 객체영역을 선택한 n(1≤n≤N)개의 객체영역 선택 데이터를 선별하는 집단 지성 기반의 상호 검증 절차를 수행하여 상기 인공지능모듈의 신뢰도 향상을 위해 상기 인공지능모듈에 주입하여 학습시킬 n개의 학습 데이터를 결정하는 제5 단계 및 상기 결정된 n개의 학습 데이터를 상기 인공지능모듈에 주입하여 학습시키는 제6 단계를 포함하는 것을 특징으로 한다.
이하 첨부된 도면과 설명을 참조하여 본 발명의 바람직한 실시예에 대한 동작 원리를 상세히 설명한다. 다만, 하기에 도시되는 도면과 후술되는 설명은 본 발명의 특징을 효과적으로 설명하기 위한 여러 가지 방법 중에서 바람직한 실시 방법에 대한 것이며, 본 발명이 하기의 도면과 설명만으로 한정되는 것은 아니다.
즉, 하기의 실시예는 본 발명의 수 많은 실시예 중에 바람직한 합집합 형태의 실시예 예에 해당하며, 하기의 실시예에서 특정 구성(또는 단계)를 생략하는 실시예, 또는 특정 구성(또는 단계)에 구현된 기능을 특정 구성(또는 단계)로 분할하는 실시예, 또는 둘 이상의 구성(또는 단계)에 구현된 기능을 어느 하나의 구성(또는 단계)에 통합하는 실시예, 특정 구성(또는 단계)의 동작 순서를 교체하는 실시예 등은, 하기의 실시예에서 별도로 언급하지 않더라도 모두 본 발명의 권리범위에 속함을 명백하게 밝혀두는 바이다. 따라서 하기의 실시예를 기준으로 부분집합 또는 여집합에 해당하는 다양한 실시예들이 본 발명의 출원일을 소급받아 분할될 수 있음을 분명하게 명기하는 바이다.
또한, 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 발명에서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
결과적으로, 본 발명의 기술적 사상은 청구범위에 의해 결정되며, 이하 실시예는 진보적인 본 발명의 기술적 사상을 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 효율적으로 설명하기 위한 일 수단일 뿐이다.
도면1은 본 발명의 실시 방법에 따라 인공지능 기반 객체인식 신뢰도를 향상시키는 시스템의 구성을 도시한 도면이다.
보다 상세하게 본 도면1은 인공지능모듈(170)과 연동하는 서버(100)에서 상기 인공지능모듈(170)을 통해 인식할 인식 대상 객체에 대한 정형 이미지나 비정형 이미지를 포함하는 학습 데이터에 포함된 하나 이상의 객체영역을 인식하고, 상기 인식된 객체영역을 설정한 객체영역 인식 데이터를 추출하여 하나 이상의 사용자단말기(165)로 지정된 순서에 따라 제공하여, 상기 사용자 단말기로부터 객체영역 인식 데이터에 포함된 하나 이상의 객체영역 중 상기 인식 대상 객체에 대응하는 적어도 하나의 유효 객체영역을 선택받은 객체영역 선택 데이터를 수신하는 절차를 일정 시간동안 수행하고, 사용자 단말기(165)로부터 수신된 사용자 별 객체영역 선택 데이터를 동일한 객체영역 선택 데이터 별로 상호 비교 분석하여 각각의 객체영역 선택 데이터 별 유효 객체영역을 선택한 사용자 중 지정된 비율 이상의 사용자가 동일한 유효 객체영역을 선택한 객체영역 선택 데이터를 선별하는 집단 지성 기반의 상호 검증 절차를 수행하여 상기 인공지능모듈(170)의 신뢰도 향상을 위해 상기 인공지능모듈(170)에 주입하여 학습시킬 학습 데이터를 결정하여 상기 인공지능모듈(170)에 주입하여 학습시키는 시스템의 구성을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면1을 참조 및/또는 변형하여 상기 시스템의 구성에 대한 다양한 실시 방법(예컨대, 일부 구성부가 생략되거나, 또는 세분화되거나, 또는 합쳐진 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면1에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.
본 발명의 시스템은, 인식 대상 객체의 정형화된 이미지에 대응하는 둘 이상의 정형 데이터를 서버(100)로부터 주입받아 학습하는 인공지능모듈(170)과, 서버(100)로부터 지정된 순서에 따라 제공받은 객체영역 인식 데이터에 포함된 하나 이상의 객체영역 중 인식 대상 객체에 대응하는 적어도 하나의 유효 객체영역을 선택한 객체영역 선택 데이터를 상기 서버(100) 제공하는 사용자 단말기(165)와, 상기 인공지능모듈(170)과 연동하며, 상기 인공지능모듈(170)을 통해 인식할 인식 대상 객체의 정형화된 이미지에 대응하는 둘 이상의 정형 데이터를 상기 인공지능모듈(170)에 주입하여 학습시키는 기능과, 상기 인식 대상 객체에 대한 정형 이미지와 비정형 이미지 중 하나 이상의 이미지를 포함하는 둘 이상의 학습 데이터를 준비하는 기능과, 상기 학습 데이터에 포함된 하나 이상의 객체영역을 인식하여 상기 학습 데이터 상에 상기 인식된 객체영역을 설정한 둘 이상의 객체영역 인식 데이터를 추출하는 기능과, 상기 인식된 객체영역을 설정한 객체영역 인식 데이터를 추출하여 하나 이상의 사용자 단말기(165)로 지정된 순서에 따라 제공하여, 상기 사용자 단말기로부터 객체영역 인식 데이터에 포함된 하나 이상의 객체영역 중 상기 인식 대상 객체에 대응하는 적어도 하나의 유효 객체영역을 선택받은 객체영역 선택데이터를 수신하는 절차를 일정 시간동안 수행하는 기능과, 사용자 단말기(165)로부터 수신된 사용자 별 객체영역 선택 데이터를 동일한 객체영역 선택 데이터 별로 상호 비교 분석하여 각각의 객체영역 선택 데이터 별 유효 객체영역을 선택한 사용자 중 지정된 비율 이상의 사용자가 동일한 유효 객체영역을 선택한 객체영역 선택데이터를 선별하는 집단 지성 기반의 상호 검증 절차를 수행하는 기능과, 상기 인공지능모듈(170)의 신뢰도 향상을 위해 상기 인공지능모듈(170)에 주입하여 학습시킬 학습 데이터를 결정하는 기능과, 상기 결정된 학습 데이터를 상기 인공지능모듈(170)에 주입하여 학습시키는 기능을 구비하는 서버(100)를 포함할 수 있다.
한편 상기 서버(100)는 상기 하나 이상의 기능을 구비하기 위한 하나 이상의 서버로 구현될 수 있으며, 상기 서버(100)를 구현하는 실시예나 상기 서버(100)의 물리적 서버 구성 또는 명칭에 의해 본 발명이 한정되지 아니한다. 이하, 편의상 본 도면1은 상기 서버(100)를 상기 사용자 단말기(165)과 통신하고 상기 인공지능모듈(170)과 연동하는 하나의 서버 형태로 도시하여 본 발명의 특징을 설명하기로 한다.
상기 사용자 단말기(165)는 상기 서버(100)로부터 지정된 순서에 따라 객체영역 인식 데이터를 제공받고, 상기 객체영역 인식 데이터에 포함된 하나 이상의 객체영역 중 인식 대상 객체에 대응하는 적어도 하나의 유효 객체영역을 선택한 객체영역 선택 데이터를 상기 서버(100)로 전송하는 사용자가 이용하는 유선 단말 및 무선 단말의 총칭으로서, 상기 서버(100)와의 통신을 위한 지정된 앱 또는 프로그램을 설치 실행할 수 있다.
상기 인공지능모듈(170)은 상기 서버(100)로부터 인식 대상 객체의 정형화된 이미지에 대응하는 둘 이상의 정형 데이터를 주입받아 학습하기 위한 하나 이상의 서버로 구현될 수 있으며, 상기 인공지능모듈(170)을 구현하는 실시예나 상기 인공지능모듈(170)의 물리적 구성 또는 명칭에 의해 본 발명이 한정되지 아니한다. 이하, 편의상 본 도면1은 상기 인공지능모듈(170)을 상기 서버(100)와 연동하는 하나의 모듈 형태로 도시하여 본 발명의 특징을 설명하기로 한다.
또한, 상기 인공지능모듈(170)은 상기 서버(100)를 통해 집단 지성 기반의 상호 검증 절차를 수행하여 상기 인공지능모듈(170)의 신뢰도 향상을 위해 결정된 하나 이상의 학습 데이터를 주입받아 학습할 수 있다.
본 발명에 따르면, 상기 인공지능모듈(170)은 객체영역 인식부(175)를 구비할 수 있으며, 상기 서버(100)는 정형 데이터를 학습한 인공지능모듈(170)의 객체영역 인식부(175)에 상기 학습 데이터를 대입하여 상기 학습 데이터 상에 상기 인공지능모듈(170)의 객체영역 인식부(175)를 통해 인식된 하나 이상의 객체영역을 설정한 객체영역 인식 데이터를 추출할 수 있다.
도면1을 참조하면, 상기 서버(100)는 둘 이상의 정형 데이터를 인공지능모듈(170)에 주입하는 정형데이터 주입부(105)와, 하나 이상의 이미지를 포함하는 학습 데이터를 준비하는 학습데이터 준비부(110)와, 객체영역을 설정한 객체영역 인식 데이터를 추출하는 인식데이터 추출부(115)와, 하나 이상의 사용자 단말기(165)로 객체영역 인식 데이터를 제공하고 상기 사용자 단말기(165)로부터 유효 객체영역을 선택받은 객체영역 선택 데이터를 수신하는 절차를 수행하는 데이터 처리부(120)와, 상기 인공지능모듈(170)의 신뢰도 향상을 위해 상기 인공지능모듈(170)에 주입하여 학습시킬 n개의 학습 데이터를 결정하는 학습데이터 결정부(125)와, 상기 결정된 학습 데이터를 상기 인공지능모듈(170)에 주입하는 학습데이터 주입부(130)를 구비하여 구성될 수 있다.
또한, 상기 서버(100)는 U명의 사용자에 대한 성별 정보, 연령 정보, 종교정보, 출신국가 정보, 전문분야 정보를 등록받아 지정된 관리DB(160)에 저장하는 정보 저장부(135)와, 인공지능모듈을 통해 인식할 인식 대상 객체가 결정된 경우 상기 인식 대상 객체와 상기 성별, 연령, 종교, 출신국가, 전문분야의 관련도를 결정하는 관련도 결정부(140)와, 통신망을 통해 접속한 사용자 단말기(165)가 위치한 국가정보, 지역정보, 위치정보 중 적어도 하나의 위치관련정보를 획득하는 위치관련정보 획득부(145)와, 동일한 시간대에 접속한 사용자 단말기의 위치관련정보를 판독하여 지정된 경계범위나 거리범위 이내에 속한 둘 이상의 사용자 단말기를 확인하거나, 동일한 시간대에 동일한 인식 대상 객체의 객체영역 인식 데이터를 제공받을 사용자 단말기의 위치관련정보를 판독하여 지정된 경계범위나 거리범위 이내에 속한 둘 이상의 사용자 단말기를 확인하는 단말기 확인부(150)를 더 구비하여 구성될 수 있다.
상기 정형데이터 주입부(105)는 상기 인공지능모듈(170)을 통해 인식할 인식대상 객체의 정형화된 이미지에 대응하는 M(M≥2)개의 정형 데이터를 상기 인공지능모듈(170)에 주입하여 학습시킬 수 있다.
상기 학습데이터 준비부(110)는 상기 정형데이터 주입부(105)를 통해 M(M≥2)개의 정형 데이터가 상기 인공지능모듈(170)에 주입되어 학습되면, 상기 인식 대상 객체에 대한 정형 이미지와 비정형 이미지 중 하나 이상의 이미지를 포함하는N(N≥2)개의 학습 데이터를 준비할 수 있다.
여기서, 상기 정형 이미지는 인식 대상 객체의 이미지만 포함하거나, 지정된 배경과 인식 대상 객체의 이미지만 포함할 수 있다.
또한, 상기 정형 이미지는 인식 대상 객체가 사람인 경우 인식 대상 사람의 정면 방향 사진 이미지와 상기 정면 방향 기준 지정된 허용 각도 범위 내에서 상기 인식 대상 사람을 촬영한 사진 이미지 중 적어도 하나의 이미지를 포함할 수 있다.
또한, 상기 정형 이미지는 인식 대상 객체가 사물인 경우 인식 대상 사물의 각 방향 별 사진 이미지와 상기 인식 대상 사물의 각 방향 별 드로잉 이미지와 상기 인식 대상 사물의 각 방향 별 2D 모델링 이미지와 상기 인식 대상 사물의 각 방향 별 3D 모델링 이미지 중 적어도 하나의 이미지를 포함할 수 있다.
여기서, 상기 비정형 이미지는 인식 대상 객체의 이미지 이외에 하나 이상의 비인식 대상 객체의 이미지를 더 포함할 수 있다.
또한, 상기 비정형 이미지는 인식 대상 객체의 이미지를 지정된 허용 범위 이내로 변형한 변형 이미지, 인식 대상 객체의 고유한 특징 부분을 일정 비율 이상 노출한 부분 이미지 중 적어도 하나의 이미지를 포함할 수 있다.
상기 인식데이터 추출부(115)는 상기 학습데이터 준비부(110)를 통해 상기 N개의 학습 데이터가 준비되면, 상기 N개의 학습 데이터에 포함된 하나 이상의 객체영역을 인식하여 상기 N개의 학습 데이터 상에 상기 인식된 객체영역을 설정한 N개의 객체영역 인식 데이터를 추출할 수 있다.
본 발명의 실시 방법에 따르면, 상기 인식데이터 추출부(115)는 지정된 객체영역 인식 알고리즘에 상기 N개의 학습 데이터를 대입하여 상기 N개의 학습 데이터상에 상기 객체영역 인식 알고리즘을 통해 인식된 하나 이상의 객체영역을 설정한 N개의 객체영역 인식 데이터를 추출할 수 있다.
또한, 본 발명의 실시 방법에 따르면, 상기 인식데이터 추출부(115)는 상기 M개의 정형 데이터를 학습한 인공지능모듈(170)의 객체영역 인식부(175)에 상기 N개의 학습 데이터를 대입하여 상기 N개의 학습 데이터 상에 상기 인공지능모듈(170)의 객체영역 인식부(175)를 통해 인식된 하나 이상의 객체영역을 설정한 N개의 객체영역 인식 데이터를 추출할 수 있다.
또한, 본 발명의 실시 방법에 따르면, 상기 인식데이터 추출부(115)는 상기 인공지능모듈(170)의 객체영역 인식부(175)와 동등한 객체영역 인식 알고리즘에 상기 N개의 학습 데이터를 대입하여 상기 N개의 학습 데이터 상에 상기 객체영역 인식 알고리즘을 통해 인식된 하나 이상의 객체영역을 설정한 N개의 객체영역 인식데이터를 추출할 수 있다.
한편, 본 발명의 실시 방법에 따르면, 상기 인식데이터 추출부(115)는 상기 인공지능모듈(170)을 통해 상기 N개의 객체영역 인식 데이터를 분석하여 상기 N개의 객체영역 인식 데이터에 포함된 하나 이상의 객체영역 중 인식 대상 객체에 대응할 것으로 예측되는 적어도 하나의 후보 객체영역을 선별하고, 상기 선별된 후보 객체영역의 크기(또는 상기 후보 객체영역 내 객체의 크기), 상기 후보 객체영역의 해상도, 상기 후보 객체영역의 대비(Contrast)(또는 상기 후보 객체영역 내 객체의 대비), 상기 후보 객체영역의 명도(Brightness)(또는 상기 후보 객체영역 내 객체의 명도), 상기 후보 객체영역의 색도(Chromaticity)(또는 상기 후보 객체영역 내 객체의 색도) 중 적어도 하나 또는 둘 이상의 조합을 기준으로 인간의 시각을 통해 상기 인식 대상 객체를 인지하기 위한 N개의 객체영역 인식 데이터 별 인지 난이도를 산출할 수 있다.
상기 데이터 처리부(120)는 상기 인식데이터 추출부(115)를 통해 상기 N개의 객체영역 인식 데이터가 추출되면, U(U≥2)명의 사용자 중 제i(1≤i≤U) 사용자가 이용하는 제i 사용자 단말기로 ni(1≤ni≤N)개의 객체영역 인식 데이터를 지정된 순서에 따라 제공하여 상기 제i 사용자 단말기로부터 상기 ni개의 객체영역 인식데이터에 포함된 하나 이상의 객체영역 중 상기 인식 대상 객체에 대응하는 적어도 하나의 유효 객체영역을 선택받은 ni개의 객체영역 선택 데이터를 수신하는 절차와, 제j(1≤j≤U, i≠j) 사용자가 이용하는 제j 사용자 단말기로 nj(1≤nj≤N)개의 객체영역 인식 데이터를 지정된 순서에 따라 제공하여 상기 제j 사용자 단말기로부터 상기 nj개의 객체영역 인식 데이터에 포함된 하나 이상의 객체영역 중 상기 인식 대상 객체에 대응하는 적어도 하나의 유효 객체영역을 선택받은 nj개의 객체영역 선택 데이터를 수신하는 절차를 지정된 u(1≤u≤U)명의 사용자를 대상으로 일정시간 동안 수행할 수 있다.
본 발명에 따르면, 상기 제i 사용자 단말기로 지정된 순서에 따라 제공되는 ni개의 객체영역 인식 데이터는 상기 nj개의 객체영역 인식 데이터에 포함된 객체영역 인식 데이터와 다른 순서로 제공되는 객체영역 인식 데이터를 포함할 수 있다.
또한, 본 발명에 따르면, 상기 제i 사용자 단말기로 지정된 순서에 따라 제공되는 ni개의 객체영역 인식 데이터는 상기 nj개의 객체영역 인식 데이터에 포함된 객체영역 인식 데이터 중 하나 이상의 객체영역 인식 데이터를 미포함할 수 있다.
또한, 본 발명에 따르면, 상기 제i 사용자 단말기로 지정된 순서에 따라 제공되는 ni개의 객체영역 인식 데이터는 상기 nj개의 객체영역 인식 데이터에 미포함된 객체영역 인식 데이터 중 하나 이상의 객체영역 인식 데이터를 포함할 수 있다.
한편, 본 발명의 실시 방법에 따르면, 상기 데이터 처리부(120)는 상기 정보저장부(135)를 통해 U명의 사용자에 대한 성별 정보를 등록받아 지정된 관리 DB(160)에 저장된 이후, 인공지능모듈(170)을 통해 인식할 인식 대상 객체가 결정된 경우 상기 관련도 결정부(140)를 통해 상기 인식 대상 객체와 성별 관련도가 결정되면, U명의 사용자 중 상기 인식 대상 객체의 성별 관련도와 매칭되는 성별의 사용자가 이용하는 사용자 단말기(165)로 지정된 개수의 객체영역 인식 데이터가 지정된 순서에 따라 제공되도록 제어할 수 있다. 예컨대, 인식 대상 객체가 여성용품인 경우 여성에게 제공되는 것이 바람직하며, 특별히 인식 대상 객체에 대한 성별 관련도가 없는 경우 특정 성별에 한정하여 제공할 필요가 없다.
또한, 본 발명의 실시 방법에 따르면, 상기 데이터 처리부(120)는 상기 정보저장부(135)를 통해 U명의 사용자에 대한 연령 정보를 등록받아 지정된 관리DB(160)에 저장된 이후, 인공지능모듈(170)을 통해 인식할 인식 대상 객체가 결정된 경우 상기 관련도 결정부(140)를 통해 상기 인식 대상 객체와 연령 관련도가 결정되면, U명의 사용자 중 상기 인식 대상 객체의 연령 관련도와 매칭되는 연령의 사용자가 이용하는 사용자 단말기(165)로 지정된 개수의 객체영역 인식 데이터가 지정된 순서에 따라 제공되도록 제어할 수 있다.
또한, 본 발명의 실시 방법에 따르면, 상기 데이터 처리부(120)는 상기 정보저장부(135)를 통해 U명의 사용자에 대한 종교 정보를 등록받아 지정된 관리DB(160)에 저장된 이후, 인공지능모듈(170)을 통해 인식할 인식 대상 객체가 결정된 경우 상기 관련도 결정부(140)를 통해 상기 인식 대상 객체와 종교 관련도가 결정되면, U명의 사용자 중 상기 인식 대상 객체의 종교 관련도와 매칭되는 종교의 사용자가 이용하는 사용자 단말기(165)로 지정된 개수의 객체영역 인식 데이터가 지정된 순서에 따라 제공되도록 제어할 수 있다.
또한, 본 발명의 실시 방법에 따르면, 상기 데이터 처리부(120)는 상기 정보저장부(135)를 통해 U명의 사용자에 대한 출신국가 정보를 등록받아 지정된 관리DB(160)에 저장된 이후, 인공지능모듈(170)을 통해 인식할 인식 대상 객체가 결정된 경우 상기 관련도 결정부(140)를 통해 상기 인식 대상 객체와 출신국가 관련도가 결정되면, U명의 사용자 중 상기 인식 대상 객체의 출신국가 관련도와 매칭되는 출신국가의 사용자가 이용하는 사용자 단말기(165)로 지정된 개수의 객체영역 인식데이터가 지정된 순서에 따라 제공되도록 제어할 수 있다.
또한, 본 발명의 실시 방법에 따르면, 상기 데이터 처리부(120)는 상기 정보저장부(135)를 통해 U명의 사용자에 대한 전문분야 정보를 등록받아 지정된 관리DB(160)에 저장된 이후, 인공지능모듈(170)을 통해 인식할 인식 대상 객체가 결정된 경우 상기 관련도 결정부(140)를 통해 상기 인식 대상 객체와 전문분야 관련도가 결정되면, U명의 사용자 중 상기 인식 대상 객체의 전문분야 관련도와 매칭되는 전문분야의 사용자가 이용하는 사용자 단말기(165)로 지정된 개수의 객체영역 인식데이터가 지정된 순서에 따라 제공되도록 제어할 수 있다.
한편, 본 발명의 실시 방법에 따르면, 상기 데이터 처리부(120)는 위치관련정보 획득부(145)를 통해 통신망을 통해 접속한 사용자 단말기(165)가 위치한 국가정보, 지역정보, 위치정보 중 적어도 하나의 위치관련정보가 획득되고, 단말기 확인부(150)를 통해 동일한 시간대에 접속한 사용자 단말기(165)의 위치관련정보를 판독하여 지정된 경계범위나 거리범위 이내에 속한 둘 이상의 사용자 단말기(165)가 확인되면, 지정된 경계범위나 거리범위 이내에 속한 둘 이상의 사용자 단말기(165)를 확인한 경우 상기 확인된 둘 이상의 사용자 단말기(165)로 서로 다른 인식 대상 객체의 객체영역 인식 데이터가 지정된 순서에 따라 제공되도록 제어할 수 있다. 예컨대, 상기 경계범위는 국가나 지역의 지도상나 행정구역상 경계의 범위를 포함하며, 국가, 지역, 위치는 사용자 단말기(165)의 IP주소를 판독하거나, 사용자단말기(165)가 무선단말인 경우 상기 무선단말과 무선 연결된 기지국 기반 위치정보나 무선단말에 탑재된 GPS 기반 위치정보를 확인할 수 있다.
또한, 본 발명의 실시 방법에 따르면, 상기 데이터 처리부(120)는 위치관련정보 획득부(145)를 통해 통신망을 통해 접속한 사용자 단말기(165)가 위치한 국가정보, 지역정보, 위치정보 중 적어도 하나의 위치관련정보가 획득되고, 단말기 확인부(150)를 통해 동일한 시간대에 동일한 인식 대상 객체의 객체영역 인식 데이터를 제공받을 사용자 단말기(165)의 위치관련정보를 판독하여 지정된 경계범위나 거리범위 이내에 속한 둘 이상의 사용자 단말기(165)가 확인되면, 지정된 경계범위나 거리범위 이내에 속한 둘 이상의 사용자 단말기(165)를 확인한 경우 상기 확인된 둘 이상의 사용자 단말기(165)로 상기 인식 대상 객체의 객체영역 인식 데이터가 상호 중복되지 않는 서로 다른 순서에 따라 제공되도록 제어할 수 있다.
한편, 본 발명의 실시 방법에 따르면, 상기 데이터 처리부(120)는 상기 인식데이터 추출부(115)를 통해 인간의 시각을 통해 상기 인식 대상 객체를 인지하기 위한 N개의 객체영역 인식 데이터 별 인지 난이도가 산출되는 경우, 사용자 단말기(165)로 제공할 복수의 객체영역 인식 데이터 중 상기 산출된 인지 난이도가 높은 객체영역 인식 데이터가 상기 사용자 단말기(165)로 먼저 제공되는 순서의 범위에 포함되도록 제어할 수 있다. 예컨대, 이미지 상의 객체 크기/해상도가 작은 경우 시각을 통해 직관적으로 즉시 인지하기 쉽지 않고, 객체의 경계가 흐리거나(=대비) 객체가 어둡거나(=명도) 색상 구별이 애매하거나(=색도) 하면 시각을 통해 직관적으로 즉시 인지하기 어려워 피로도 낮은 시점에 먼저 제공하여 인지하도록 할 수 있다.
한편, 본 발명의 실시 방법에 따르면, 상기 데이터 처리부(120)는 상기 인식대상 객체의 정형화된 이미지를 포함하는 기준 객체 이미지를 상기 사용자 단말기(165)로 제공하여 상기 객체영역 인식 데이터를 표시하는 화면과 동일한 화면의 일정 영역에 표시하도록 제어할 수 있다. 예컨대, 사용자로 하여금 인식 대상 객체를 선택하는데 도움을 주며, 혹시 집중력이 떨어지더라도 기준 객체를 보고 선택하도록 유도할 수 있다.
상기 학습데이터 결정부(125)는 상기 데이터 처리부(120)를 통해 적어도 하나의 유효 객체영역을 선택받은 nj개의 객체영역 선택 데이터를 수신하는 절차가 지정된 u명의 사용자를 대상으로 일정 시간 동안 수행된 이후, 상기 u개의 사용자단말기(165)로부터 수신된 u명의 사용자 별 객체영역 선택 데이터를 동일한 객체영역 선택 데이터 별로 상호 비교 분석하여 각각의 객체영역 선택 데이터 별 유효 객체영역을 선택한 v(1≤v≤u)명의 사용자 중 지정된 비율(예컨대, 51% 내지 100%의 비율 중 적어도 하나의 비율을 포함) 이상의 사용자가 동일한 유효 객체영역을 선택한 n(1≤n≤N)개의 객체영역 선택 데이터를 선별하는 집단 지성 기반의 상호 검증 절차를 수행하여 상기 인공지능모듈(170)의 신뢰도 향상을 위해 상기 인공지능모듈(170)에 주입하여 학습시킬 n개의 학습 데이터를 결정할 수 있다.
본 발명에 따르면, 상기 n개의 학습 데이터는 상기 집단 지성 기반의 상호 검증 절차를 통해 상기 인식 대상 객체의 유효 객체영역으로 검증된 적어도 하나의 유효 객체영역을 포함할 수 있다.
한편, 본 발명의 실시 방법에 따르면, 상기 학습데이터 결정부(125)는 각각의 객체영역 선택 데이터 별로 지정된 비율 이상의 사용자가 선택한 유효 객체영역과 동일한 유효 객체영역을 선택한 사용자에게 지정된 인센티브 지급을 위한 인센티브 점수값을 증가시킬 수 있다.
또한, 본 발명의 실시 방법에 따르면, 상기 학습데이터 결정부(125)는 각각의 객체영역 선택 데이터 별로 지정된 비율 이상의 사용자가 선택한 유효 객체영역과 다른 유효 객체영역을 선택한 사용자에게 지정된 인센티브 지급을 위한 인센티브 점수값의 증가를 거절할 수 있다.
여기서, 상기 학습데이터 결정부(125)는 상기 인센티브 점수값이 기 설정된 기준값 이상인 사용자에게 지정된 인센티브를 제공할 수 있다. 예컨대, 상기 인센티브는 포인트 지급, 금전 지급, 쿠폰 지급 등과 같은 경제적 이득을 포함할 수 있으며, 또한 인센티브 점수값에 따라 등급별로 차등 제공할 수 있다.
또한, 본 발명의 실시 방법에 따르면, 상기 학습데이터 결정부(125)는 각각의 객체영역 선택 데이터 별로 지정된 비율 이상의 사용자가 선택한 유효 객체영역과 다른 유효 객체영역을 선택한 사용자에게 지정된 패널티 지급을 위한 패널티 점수값을 증가시킬 수 있으며, 상기 패널티 점수값이 기 설정된 기준값 이상인 사용자에게 지정된 패널티를 제공할 수 있다.
여기서, 상기 패널티는 상기 객체영역 인식 데이터에 포함된 유효 객체영역을 선택하여 지정된 인센티브를 제공받는 업무에 대한 참여 제한이나 참여 거부를 포함할 수 있다.
상기 학습데이터 주입부(130)는 상기 학습데이터 결정부(125)를 통해 상기 인공지능모듈(170)에 주입하여 학습시킬 n개의 학습 데이터가 결정되면, 상기 결정된 n개의 학습 데이터를 상기 인공지능모듈에 주입하여 학습시킬 수 있다.
도면2는 본 발명의 실시 방법에 따라 학습 데이터에 포함된 객체영역을 인식하여 객체영역 인식 데이터를 추출하는 과정을 도시한 도면이다.
보다 상세하게 본 도면2는 상기 도면1에 도시된 인공지능모듈(170)과 연동하는 서버(100)에서 인식 대상 객체에 대한 정형 이미지와 비정형 이미지 중 하나 이상의 이미지를 포함하는 N(N≥2)개의 학습 데이터를 준비하고, 상기 N개의 학습 데이터에 포함된 하나 이상의 객체영역을 인식하여 상기 N개의 학습 데이터 상에 상기 인식된 객체영역을 설정한 N개의 객체영역 인식 데이터를 추출하는 과정의 일 실시예를 도시한 도면으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면2를 참조 및/또는 변형하여 상기 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면2에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.
도면2를 참조하면, 도시된 실시예는 상기 서버(100)에서 상기 인공지능모듈(170)을 통해 인식할 인식 대상 객체의 정형화된 이미지에 대응하는 M(M≥2)개의 정형 데이터를 상기 인공지능모듈(170)에 주입하여 학습시키는 과정으로부터 개시될 수 있다(200)
이후, 상기 서버(100)는 상기 인식 대상 객체에 대한 정형 이미지와 비정형 이미지 중 하나 이상의 이미지를 포함하는 N(N≥2)개의 학습 데이터를 준비한다(205) 여기서, 상기 정형 이미지는 인식 대상 객체의 이미지만 포함하거나, 지정된 배경과 인식 대상 객체의 이미지만 포함할 수 있다.
또한, 상기 정형 이미지는 인식 대상 객체가 사람인 경우 인식 대상 사람의 정면 방향 사진 이미지와 상기 정면 방향 기준 지정된 허용 각도 범위 내에서 상기 인식 대상 사람을 촬영한 사진 이미지 중 적어도 하나의 이미지를 포함할 수 있으며, 상기 인식 대상 객체가 사물인 경우 인식 대상 사물의 각 방향 별 사진 이미지와 상기 인식 대상 사물의 각 방향 별 드로잉 이미지와 상기 인식 대상 사물의 각 방향 별 2D 모델링 이미지와 상기 인식 대상 사물의 각 방향 별 3D 모델링 이미지 중 적어도 하나의 이미지를 포함할 수 있다.
여기서, 상기 비정형 이미지는 인식 대상 객체의 이미지 이외에 하나 이상의 비인식 대상 객체의 이미지를 더 포함할 수 있다. 또한, 상기 비정형 이미지는 인식 대상 객체의 이미지를 지정된 허용 범위 이내로 변형한 변형 이미지, 인식 대상 객체의 고유한 특징 부분을 일정 비율 이상 노출한 부분 이미지 중 적어도 하나의 이미지를 포함할 수 있다.
상기 N개의 학습 데이터가 준비되면, 상기 서버(100)는 상기 N개의 학습 데이터에 포함된 하나 이상의 객체영역을 인식하고(210), 상기 N개의 학습 데이터 상에 상기 인식된 객체영역을 설정한 N개의 객체영역 인식 데이터를 추출한다(215)
여기서, 상기 서버(100)는 지정된 객체영역 인식 알고리즘에 상기 N개의 학습 데이터를 대입하여 상기 N개의 학습 데이터 상에 상기 객체영역 인식 알고리즘을 통해 인식된 하나 이상의 객체영역을 설정한 N개의 객체영역 인식 데이터를 추출하거나, 상기 M개의 정형 데이터를 학습한 인공지능모듈(170)의 객체영역 인식부(175)에 상기 N개의 학습 데이터를 대입하여 상기 N개의 학습 데이터 상에 상기 인공지능모듈(170)의 객체영역 인식부(175)를 통해 인식된 하나 이상의 객체영역을 설정한 N개의 객체영역 인식 데이터를 추출하거나, 상기 인공지능모듈(170)의 객체 영역 인식부(175)와 동등한 객체영역 인식 알고리즘에 상기 N개의 학습 데이터를 대입하여 상기 N개의 학습 데이터 상에 상기 객체영역 인식 알고리즘을 통해 인식된 하나 이상의 객체영역을 설정한 N개의 객체영역 인식 데이터를 추출할 수 있다.
도면3a는 본 발명의 실시 방법에 따라 인식 대상 객체의 성별 관련도와 매칭되는 사용자의 단말기로 객체영역 인식 데이터를 제공하는 과정을 도시한 도면이다.
보다 상세하게 본 도면3a는 상기 도면2의 과정을 통해 인식된 객체영역을 설정한 N개의 객체영역 인식 데이터가 추출된 이후, 인공지능모듈(170)을 통해 인식할 인식 대상 객체가 결정된 경우, 인식 대상 객체의 성별 관련도와 매칭되는 사용자가 이용하는 사용자 단말기(165)로 객체영역 인식 데이터를 제공하는 과정의 일 실시예를 도시한 도면으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면3a를 참조 및/또는 변형하여 상기 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면3a에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.
도면3a를 참조하면, 도시된 실시예는 상기 도면2의 과정을 통해 서버(100)에서 상기 N개의 학습 데이터에 포함된 하나 이상의 객체영역을 인식하여 상기 N개의 학습 데이터 상에 상기 인식된 객체영역을 설정한 N개의 객체영역 인식 데이터가 추출된 이후, U명의 사용자에 대한 성별 정보를 등록받아 지정된 관리DB(160)에 저장하는 과정으로부터 개시될 수 있다(300a)
이후 상기 서버(100)는 인공지능모듈(170)을 통해 인식할 인식 대상 객체가 결정되면(305a), 상기 인식 대상 객체와 성별 관련도를 결정한다(310a)
그리고, 상기 서버(100)는 U명의 사용자 중 상기 인식 대상 객체의 성별 관련도와 매칭되는 성별의 사용자를 확인하고(315a), 상기 확인된 사용자가 이용하는 사용자 단말기(165)로 지정된 개수의 객체영역 인식 데이터가 지정된 순서에 따라 제공되도록 제어한다(320a)
도면3b는 본 발명의 실시 방법에 따라 인식 대상 객체의 연령 관련도와 매칭되는 사용자의 단말기로 객체영역 인식 데이터를 제공하는 과정을 도시한 도면이다.
보다 상세하게 본 도면3b는 상기 도면2의 과정을 통해 인식된 객체영역을 설정한 N개의 객체영역 인식 데이터가 추출된 이후, 인공지능모듈(170)을 통해 인식할 인식 대상 객체가 결정된 경우, 인식 대상 객체의 연령 관련도와 매칭되는 사용자가 이용하는 사용자 단말기(165)로 객체영역 인식 데이터를 제공하는 과정의 일 실시예를 도시한 도면으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면3b를 참조 및/또는 변형하여 상기 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면 3b에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.
도면3b를 참조하면, 도시된 실시예는 상기 도면2의 과정을 통해 서버(100)에서 상기 N개의 학습 데이터에 포함된 하나 이상의 객체영역을 인식하여 상기 N개의 학습 데이터 상에 상기 인식된 객체영역을 설정한 N개의 객체영역 인식 데이터가 추출된 이후, U명의 사용자에 대한 연령 정보를 등록받아 지정된 관리DB(160)에 저장하는 과정으로부터 개시될 수 있다(300b)
이후 상기 서버(100)는 인공지능모듈(170)을 통해 인식할 인식 대상 객체가 결정되면(305b), 상기 인식 대상 객체와 연령 관련도를 결정한다(310b)
그리고, 상기 서버(100)는 U명의 사용자 중 상기 인식 대상 객체의 연령 관련도와 매칭되는 연령의 사용자를 확인하고(315b), 상기 확인된 사용자가 이용하는 사용자 단말기(165)로 지정된 개수의 객체영역 인식 데이터가 지정된 순서에 따라 제공되도록 제어한다(320b)
도면3c는 본 발명의 실시 방법에 따라 인식 대상 객체의 종교 관련도와 매칭되는 사용자의 단말기로 객체영역 인식 데이터를 제공하는 과정을 도시한 도면이다.
보다 상세하게 본 도면3c는 상기 도면2의 과정을 통해 인식된 객체영역을 설정한 N개의 객체영역 인식 데이터가 추출된 이후, 인공지능모듈(170)을 통해 인식할 인식 대상 객체가 결정된 경우, 인식 대상 객체의 종교 관련도와 매칭되는 사용자가 이용하는 사용자 단말기(165)로 객체영역 인식 데이터를 제공하는 과정의 일 실시예를 도시한 도면으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면3c를 참조 및/또는 변형하여 상기 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면 3c에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.
도면3c를 참조하면, 도시된 실시예는 상기 도면2의 과정을 통해 서버(100)에서 상기 N개의 학습 데이터에 포함된 하나 이상의 객체영역을 인식하여 상기 N개의 학습 데이터 상에 상기 인식된 객체영역을 설정한 N개의 객체영역 인식 데이터가 추출된 이후, U명의 사용자에 대한 종교 정보를 등록받아 지정된 관리DB(160)에 저장하는 과정으로부터 개시될 수 있다(300c)
이후 상기 서버(100)는 인공지능모듈(170)을 통해 인식할 인식 대상 객체가 결정되면(305c), 상기 인식 대상 객체와 종교 관련도를 결정한다(310c)
그리고, 상기 서버(100)는 U명의 사용자 중 상기 인식 대상 객체의 종교 관련도와 매칭되는 종교의 사용자를 확인하고(315c), 상기 확인된 사용자가 이용하는 사용자 단말기(165)로 지정된 개수의 객체영역 인식 데이터가 지정된 순서에 따라 제공되도록 제어한다(320c)
도면3d는 본 발명의 실시 방법에 따라 인식 대상 객체의 출신국가 관련도와 매칭되는 사용자의 단말기로 객체영역 인식 데이터를 제공하는 과정을 도시한 도면이다.
보다 상세하게 본 도면3d는 상기 도면2의 과정을 통해 인식된 객체영역을 설정한 N개의 객체영역 인식 데이터가 추출된 이후, 인공지능모듈(170)을 통해 인식할 인식 대상 객체가 결정된 경우, 인식 대상 객체의 출신국가 관련도와 매칭되는 사용자가 이용하는 사용자 단말기(165)로 객체영역 인식 데이터를 제공하는 과정의 일 실시예를 도시한 도면으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면3d를 참조 및/또는 변형하여 상기 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면3d에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.
도면3d를 참조하면, 도시된 실시예는 상기 도면2의 과정을 통해 서버(100)에서 상기 N개의 학습 데이터에 포함된 하나 이상의 객체영역을 인식하여 상기 N개의 학습 데이터 상에 상기 인식된 객체영역을 설정한 N개의 객체영역 인식 데이터가 추출된 이후, U명의 사용자에 대한 출신국가 정보를 등록받아 지정된 관리DB(160)에 저장하는 과정으로부터 개시될 수 있다(300d)
이후 상기 서버(100)는 인공지능모듈(170)을 통해 인식할 인식 대상 객체가 결정되면(305d), 상기 인식 대상 객체와 출신국가 관련도를 결정한다(310d)
그리고, 상기 서버(100)는 U명의 사용자 중 상기 인식 대상 객체의 출신국가 관련도와 매칭되는 출신국가의 사용자를 확인하고(315d), 상기 확인된 사용자가 이용하는 사용자 단말기(165)로 지정된 개수의 객체영역 인식 데이터가 지정된 순서에 따라 제공되도록 제어한다(320d)
도면3e는 본 발명의 실시 방법에 따라 인식 대상 객체의 전문분야 관련도와 매칭되는 사용자의 단말기로 객체영역 인식 데이터를 제공하는 과정을 도시한 도면이다.
보다 상세하게 본 도면3e는 상기 도면2의 과정을 통해 인식된 객체영역을 설정한 N개의 객체영역 인식 데이터가 추출된 이후, 인공지능모듈(170)을 통해 인식할 인식 대상 객체가 결정된 경우, 인식 대상 객체의 출신국가 관련도와 매칭되는 사용자가 이용하는 사용자 단말기(165)로 객체영역 인식 데이터를 제공하는 과정의 일 실시예를 도시한 도면으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면3e를 참조 및/또는 변형하여 상기 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면3e에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.
도면3e를 참조하면, 도시된 실시예는 상기 도면2의 과정을 통해 서버(100)에서 상기 N개의 학습 데이터에 포함된 하나 이상의 객체영역을 인식하여 상기 N개의 학습 데이터 상에 상기 인식된 객체영역을 설정한 N개의 객체영역 인식 데이터가 추출된 이후, U명의 사용자에 대한 전문분야 정보를 등록받아 지정된 관리DB(160)에 저장하는 과정으로부터 개시될 수 있다(300e)
이후 상기 서버(100)는 인공지능모듈(170)을 통해 인식할 인식 대상 객체가 결정되면(305e), 상기 인식 대상 객체와 전문분야 관련도를 결정한다(310e)
그리고, 상기 서버(100)는 U명의 사용자 중 상기 인식 대상 객체의 전문분야 관련도와 매칭되는 전문분야의 사용자를 확인하고(315e), 상기 확인된 사용자가 이용하는 사용자 단말기(165)로 지정된 개수의 객체영역 인식 데이터가 지정된 순서에 따라 제공되도록 제어한다(320e)
도면4는 본 발명의 실시 방법에 따라 인식 대상 객체를 인지하기 위한 인지 난이도에 따라 사용자의 단말기로 객체영역 인식 데이터를 제공하는 과정을 도시한 도면이다.
보다 상세하게 본 도면4는 상기 도면2의 과정을 통해 인식된 객체영역을 설정한 N개의 객체영역 인식 데이터가 추출된 이후, 인식 대상 객체에 대응할 것으로 예측되는 후보 객체영역의 속성(예컨대, 크기, 해상도, 대비, 명도, 채도 등)에 따라 객체영역 인식 데이터 별 인지 난이도를 산출하여 산출된 인지 난이도가 높은 개체영역 인식 데이터를 우선적으로 사용자 단말기로 제공하는 과정의 일 실시예를 도시한 도면으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면4를 참조 및/또는 변형하여 상기 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면4에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.
도면4를 참조하면, 도시된 실시예는 상기 도면2의 과정을 통해 서버(100)에서 상기 N개의 학습 데이터에 포함된 하나 이상의 객체영역을 인식하여 상기 N개의 학습 데이터 상에 상기 인식된 객체영역을 설정한 N개의 객체영역 인식 데이터가 추출된 이후, 서버(100)에서 인공지능모듈(170)을 통해 상기 N개의 객체영역 인식 데이터를 분석하는 과정으로부터 개시될 수 있다(400)
상기 서버(100)는 상기 분석을 통해 상기 N개의 객체영역 인식 데이터에 포함된 하나 이상의 객체영역 중 인식 대상 객체에 대응할 것으로 예측되는 적어도 하나의 후보 객체영역을 선별한다(405)
그리고, 상기 서버(100)는 상기 선별된 후보 객체영역의 크기(또는 상기 후보 객체영역 내 객체의 크기), 상기 후보 객체영역의 해상도, 상기 후보 객체영역의 대비(Contrast)(또는 상기 후보 객체영역 내 객체의 대비), 상기 후보 객체영역의 명도(Brightness)(또는 상기 후보 객체영역 내 객체의 명도), 상기 후보 객체영역의 색도(Chromaticity)(또는 상기 후보 객체영역 내 객체의 색도) 중 적어도 하나 또는 둘 이상의 조합을 기준으로 인간의 시각을 통해 상기 인식 대상 객체를 인지하기 위한 N개의 객체영역 인식 데이터 별 인지 난이도를 산출한다(410)
상기 N개의 객체영역 인식 데이터 별 인지 난이도가 산출되면, 상기 서버(100)는 사용자 단말기(165)로 제공할 복수의 객체영역 인식 데이터 중 상기 산출된 인지 난이도가 높은 객체영역 인식 데이터가 상기 사용자 단말기(165)로 먼저 제공되는 순서의 범위에 포함되도록 제어한다(415)
도면5는 본 발명의 실시 방법에 따라 사용자 단말기로부터 수신된 사용자 별 객체영역 선택 데이터를 분석하여 인공지능모듈의 신뢰도 향상을 위한 학습 데이터를 결정하는 과정을 도시한 도면이다.
보다 상세하게 본 도면5는 상기 도면3a, 도면3b, 도면3c, 도면3d, 도면3e, 도면4의 과정을 통해 객체영역 인식 데이터를 사용자 단말기(165)로 제공한 이후, 상기 사용자 단말기(165)로부터 수신되는 사용자 별 객체영역 선택 데이터를 이용하여 인공지능모듈(170)의 신뢰도 향상을 위한 상기 인공지능모듈(170)에 주입하여 학습시킬 학습 데이터를 결정하는 과정의 일 실시예를 도시한 도면으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면5를 참조 및/또는 변형하여 상기 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면5에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.
도면5를 참조하면, 도시된 실시예는 상기 도면3a, 도면3b, 도면3c, 도면3d, 도면3e, 도면4의 과정을 통해 객체영역 인식 데이터를 사용자 단말기(165)로 제공한 이후, 서버(100)에서 u개의 사용자 단말기(165)로부터 u명의 사용자 별 객체영역 선택 데이터를 수신하는 과정으로부터 개시될 수 있다(500)
이후 상기 서버(100)는 상기 수신된 u명의 사용자 별 객체영역 선택 데이터를 동일한 객체영역 선택 데이터 별로 상호 비교 분석하고(505), 각각의 객체영역 선택 데이터 별 유효 객체영역을 선택한 v(1≥v≥u)명의 사용자 중 지정된 비율 이상의 사용자가 동일한 유효 객체영역을 선택한 n(1≥n≥N)개의 객체영역 선택 데이터를 선별하는 집단 지성 기반의 상호 검증 절차를 수행한다(510)
그리고, 상기 서버(100)는 상기 인공지능모듈(170)의 신뢰도 향상을 위해 상기 인공지능모듈(170)에 주입하여 학습시킬 n개의 학습 데이터를 결정하고(515), 상기 결정된 n개의 학습 데이터를 상기 인공지능모듈에 주입하여 학습시킨다(520)

Claims (15)

  1. 인공지능모듈과 연동하는 서버를 통해 실행되는 방법에 있어서,
    인공지능모듈을 통해 인식할 인식 대상 객체의 정형화된 이미지에 대응하는 M(M≥2)개의 정형 데이터를 상기 인공지능모듈에 주입하여 학습시키는 제1 단계;
    상기 인식 대상 객체에 대한 정형 이미지와 비정형 이미지 중 하나 이상의 이미지를 포함하는 N(N≥2)개의 학습 데이터를 준비하는 제2 단계;
    상기 N개의 학습 데이터에 포함된 하나 이상의 객체영역을 인식하여 상기 N개의 학습 데이터 상에 상기 인식된 객체영역을 설정한 N개의 객체영역 인식 데이터를 추출하는 제3 단계;
    U(U≥2)명의 사용자 중 제i(1≤i≤U) 사용자가 이용하는 제i 사용자 단말기로 ni(1≤ni≤N)개의 객체영역 인식 데이터를 지정된 순서에 따라 제공하여 상기 제i 사용자 단말기로부터 상기 ni개의 객체영역 인식 데이터에 포함된 하나 이상의 객체영역 중 상기 인식 대상 객체에 대응하는 적어도 하나의 유효 객체영역을 선택받은 ni개의 객체영역 선택 데이터를 수신하는 절차와, 제j(1≤j≤U, i≠j) 사용자가 이용하는 제j 사용자 단말기로 nj(1≤nj≤N)개의 객체영역 인식 데이터를 지정된 순서에 따라 제공하여 상기 제j 사용자 단말기로부터 상기 nj개의 객체영역 인식 데이터에 포함된 하나 이상의 객체영역 중 상기 인식 대상 객체에 대응하는 적어도 하나의 유효 객체영역을 선택받은 nj개의 객체영역 선택 데이터를 수신하는 절차를 지정된 u(1≤u≤U)명의 사용자를 대상으로 일정 시간 동안 수행하는 제4 단계;
    상기 u개의 사용자 단말기로부터 수신된 u명의 사용자 별 객체영역 선택 데이터를 동일한 객체영역 선택 데이터 별로 상호 비교 분석하여 각각의 객체영역 선택 데이터 별 유효 객체영역을 선택한 v(1≤v≤u)명의 사용자 중 지정된 비율 이상의 사용자가 동일한 유효 객체영역을 선택한 n(1≤n≤N)개의 객체영역 선택 데이터를 선별하는 집단 지성 기반의 상호 검증 절차를 수행하여 상기 인공지능모듈의 신뢰도 향상을 위해 상기 인공지능모듈에 주입하여 학습시킬 n개의 학습 데이터를 결정하는 제5 단계; 및
    상기 결정된 n개의 학습 데이터를 상기 인공지능모듈에 주입하여 학습시키는 제6 단계;를 포함하는 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인
    식 신뢰도 향상 방법.
  2. 제 1항에 있어서, 상기 제3 단계는,
    지정된 객체영역 인식 알고리즘에 상기 N개의 학습 데이터를 대입하여 상기 N개의 학습 데이터 상에 상기 객체영역 인식 알고리즘을 통해 인식된 하나 이상의 객체영역을 설정한 N개의 객체영역 인식 데이터를 추출하거나, 또는 상기 M개의 정형 데이터를 학습한 인공지능모듈의 객체영역 인식부에 상기 N개의 학습 데이터를 대입하여 상기 N개의 학습 데이터 상에 상기 인공지능모듈의 객체영역 인식부를 통해 인식된 하나 이상의 객체영역을 설정한 N개의 객체영역 인식 데이터를 추출하거나, 또는
    상기 인공지능모듈의 객체영역 인식부와 동등한 객체영역 인식 알고리즘에 상기 N개의 학습 데이터를 대입하여 상기 N개의 학습 데이터 상에 상기 객체영역인식 알고리즘을 통해 인식된 하나 이상의 객체영역을 설정한 N개의 객체영역 인식데이터를 추출하는 단계를 포함하여 이루어지는 것을 특징으로 하는 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법.
  3. 제 1항에 있어서, 상기 ni개의 객체영역 인식 데이터는,
    상기 nj개의 객체영역 인식 데이터에 포함된 객체영역 인식 데이터와 다른 순서로 제공되는 객체영역 인식 데이터를 포함하거나, 또는 상기 nj개의 객체영역 인식 데이터에 포함된 객체영역 인식 데이터 중 하나 이상의 객체영역 인식 데이터를 미포함하거나, 또는
    상기 nj개의 객체영역 인식 데이터에 미포함된 객체영역 인식 데이터 중 하나 이상의 객체영역 인식 데이터를 포함하여 이루어지는 것을 특징으로 하는 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법.
  4. 제 1항에 있어서,
    U명의 사용자에 대한 성별 정보를 등록받아 지정된 관리DB에 저장하는 단계를 더 포함하고,
    인공지능모듈을 통해 인식할 인식 대상 객체가 결정된 경우 상기 인식 대상객체와 성별 관련도를 결정하는 단계를 더 포함하며,
    상기 제4 단계는, U명의 사용자 중 상기 인식 대상 객체의 성별 관련도와 매
    칭되는 성별의 사용자가 이용하는 사용자 단말기로 지정된 개수의 객체영역 인식데이터가 지정된 순서에 따라 제공되도록 제어하는 단계를 포함하여 이루어지는 것을 특징으로 하는 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법.
  5. 제 1항에 있어서,
    U명의 사용자에 대한 연령 정보를 등록받아 지정된 관리DB에 저장하는 단계를 더 포함하고,
    인공지능모듈을 통해 인식할 인식 대상 객체가 결정된 경우 상기 인식 대상 객체와 연령 관련도를 결정하는 단계를 더 포함하며,
    상기 제4 단계는, U명의 사용자 중 상기 인식 대상 객체의 연령 관련도와 매칭되는 연령의 사용자가 이용하는 사용자 단말기로 지정된 개수의 객체영역 인식데이터가 지정된 순서에 따라 제공되도록 제어하는 단계를 포함하여 이루어지는 것을 특징으로 하는 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법.
  6. 제 1항에 있어서,
    U명의 사용자에 대한 종교 정보를 등록받아 지정된 관리DB에 저장하는 단계를 더 포함하고,
    인공지능모듈을 통해 인식할 인식 대상 객체가 결정된 경우 상기 인식 대상 객체와 종교 관련도를 결정하는 단계를 더 포함하며,
    상기 제4 단계는, U명의 사용자 중 상기 인식 대상 객체의 종교 관련도와 매칭되는 종교의 사용자가 이용하는 사용자 단말기로 지정된 개수의 객체영역 인식데이터가 지정된 순서에 따라 제공되도록 제어하는 단계를 포함하여 이루어지는 것을 특징으로 하는 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법.
  7. 제 1항에 있어서,
    U명의 사용자에 대한 출신국가 정보를 등록받아 지정된 관리DB에 저장하는 단계를 더 포함하고,
    인공지능모듈을 통해 인식할 인식 대상 객체가 결정된 경우 상기 인식 대상객체와 출신국가 관련도를 결정하는 단계를 더 포함하며,
    상기 제4 단계는, U명의 사용자 중 상기 인식 대상 객체의 출신국가 관련도와 매칭되는 출신국가의 사용자가 이용하는 사용자 단말기로 지정된 개수의 객체영역 인식 데이터가 지정된 순서에 따라 제공되도록 제어하는 단계를 포함하여 이루어지는 것을 특징으로 하는 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법.
  8. 제 1항에 있어서,
    U명의 사용자에 대한 전문분야 정보를 등록받아 지정된 관리DB에 저장하는 단계를 더 포함하고,
    인공지능모듈을 통해 인식할 인식 대상 객체가 결정된 경우 상기 인식 대상객체와 전문분야 관련도를 결정하는 단계를 더 포함하며,
    상기 제4 단계는, U명의 사용자 중 상기 인식 대상 객체의 전문분야 관련도와 매칭되는 전문분야의 사용자가 이용하는 사용자 단말기로 지정된 개수의 객체영역 인식 데이터가 지정된 순서에 따라 제공되도록 제어하는 단계를 포함하여 이루어지는 것을 특징으로 하는 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법.
  9. 제 1항에 있어서,
    통신망을 통해 접속한 사용자 단말기가 위치한 국가정보, 지역정보, 위치정보 중 적어도 하나의 위치관련정보를 획득하는 단계;
    동일한 시간대에 접속한 사용자 단말기의 위치관련정보를 판독하여 지정된 경계범위나 거리범위 이내에 속한 둘 이상의 사용자 단말기를 확인하는 단계;를 더 포함하며,
    상기 제4 단계는, 지정된 경계범위나 거리범위 이내에 속한 둘 이상의 사용자 단말기를 확인한 경우 상기 확인된 둘 이상의 사용자 단말기로 서로 다른 인식대상 객체의 객체영역 인식 데이터가 지정된 순서에 따라 제공되도록 제어하는 단계를 포함하여 이루어지는 것을 특징으로 하는 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법.
  10. 제 1항에 있어서,
    통신망을 통해 접속한 사용자 단말기가 위치한 국가정보, 지역정보, 위치정보 중 적어도 하나의 위치관련정보를 획득하는 단계;
    동일한 시간대에 동일한 인식 대상 객체의 객체영역 인식 데이터를 제공받을 사용자 단말기의 위치관련정보를 판독하여 지정된 경계범위나 거리범위 이내에 속한 둘 이상의 사용자 단말기를 확인하는 단계;를 더 포함하며,
    상기 제4 단계는, 지정된 경계범위나 거리범위 이내에 속한 둘 이상의 사용자 단말기를 확인한 경우 상기 확인된 둘 이상의 사용자 단말기로 상기 인식 대상 객체의 객체영역 인식 데이터가 상호 중복되지 않는 서로 다른 순서에 따라 제공되도록 제어하는 단계를 포함하여 이루어지는 것을 특징으로 하는 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법.
  11. 제 1항에 있어서,
    상기 제3 단계는,
    상기 인공지능모듈을 통해 상기 N개의 객체영역 인식 데이터를 분석하여 상기 N개의 객체영역 인식 데이터에 포함된 하나 이상의 객체영역 중 인식 대상 객체에 대응할 것으로 예측되는 적어도 하나의 후보 객체영역을 선별하는 단계;
    상기 선별된 후보 객체영역의 크기(또는 상기 후보 객체영역 내 객체의 크기), 상기 후보 객체영역의 해상도, 상기 후보 객체영역의 대비(Contrast)(또는 상기 후보 객체영역 내 객체의 대비), 상기 후보 객체영역의 명도(Brightness)(또는 상기 후보 객체영역 내 객체의 명도), 상기 후보 객체영역의 색도(Chromaticity)(또는 상기 후보 객체영역 내 객체의 색도) 중 적어도 하나 또는 둘 이상의 조합을 기준으로 인간의 시각을 통해 상기 인식 대상 객체를 인지하기 위한 N개의 객체영역 인식 데이터 별 인지 난이도를 산출하는 단계;를 더 포함하며,
    상기 제4 단계는, 사용자 단말기로 제공할 복수의 객체영역 인식 데이터 중 상기 산출된 인지 난이도가 높은 객체영역 인식 데이터가 상기 사용자 단말기로 먼저 제공되는 순서의 범위에 포함되도록 제어하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법.
  12. 제 1항에 있어서, 상기 제4 단계는,
    상기 인식 대상 객체의 정형화된 이미지를 포함하는 기준 객체 이미지를 상기 사용자 단말기로 제공하여 상기 객체영역 인식 데이터를 표시하는 화면과 동일한 화면의 일정 영역에 표시하도록 제어하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법.
  13. 제 1항에 있어서, 상기 지정된 비율은,
    51% 내지 100%의 비율 중 적어도 하나의 비율을 포함하여 이루어지는 것을 특징으로 하는 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법.
  14. 제 1항에 있어서, 상기 제5 단계는,
    각각의 객체영역 선택 데이터 별로 지정된 비율 이상의 사용자가 선택한 유효 객체영역과 동일한 유효 객체영역을 선택한 사용자에게 지정된 인센티브 지급을 위한 인센티브 점수값을 증가시키는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법.
  15. 제 1항에 있어서, 상기 제5 단계는,
    각각의 객체영역 선택 데이터 별로 지정된 비율 이상의 사용자가 선택한 유효 객체영역과 다른 유효 객체영역을 선택한 사용자에게 지정된 패널티 지급을 위한 패널티 점수값을 증가시키는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법.
PCT/KR2019/017310 2018-12-31 2019-12-09 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법 WO2020141745A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/419,784 US11798268B2 (en) 2018-12-31 2019-12-09 Method for improving reliability of artificial intelligence-based object recognition using collective intelligence-based mutual verification

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0173896 2018-12-31
KR1020180173896A KR102189307B1 (ko) 2018-12-31 2018-12-31 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법

Publications (1)

Publication Number Publication Date
WO2020141745A1 true WO2020141745A1 (ko) 2020-07-09

Family

ID=71406622

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/017310 WO2020141745A1 (ko) 2018-12-31 2019-12-09 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법

Country Status (3)

Country Link
US (1) US11798268B2 (ko)
KR (1) KR102189307B1 (ko)
WO (1) WO2020141745A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023087215A1 (en) * 2021-11-18 2023-05-25 Citrix Systems, Inc. Online meeting non-participant detection and remediation

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8606745B1 (en) * 2004-12-03 2013-12-10 Google Inc. Using game responses to gather data
KR101797856B1 (ko) * 2016-02-24 2017-11-15 라인 가부시키가이샤 메신저 서비스를 이용한 인공지능 학습 방법 및 시스템, 그리고 인공지능을 이용한 답변 중계 방법 및 시스템
KR20180041699A (ko) * 2015-12-03 2018-04-24 구글 엘엘씨 이미지 기반의 captcha 과제
KR101854804B1 (ko) * 2017-11-17 2018-05-04 한국과학기술정보연구원 텍스트와 연관된 개체명을 결정하기 위한 사용자 인증 서비스 제공 및 학습 데이터 구축 방법
KR20180130925A (ko) * 2017-05-30 2018-12-10 국방과학연구소 머신 러닝을 위한 학습 이미지를 자동 생성하는 인공 지능 장치 및 그의 제어 방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9495614B1 (en) * 2015-02-27 2016-11-15 Google Inc. Verifying labels for images using image recognition
US11200273B2 (en) * 2016-10-16 2021-12-14 Ebay Inc. Parallel prediction of multiple image aspects
US10860854B2 (en) * 2017-05-16 2020-12-08 Google Llc Suggested actions for images

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8606745B1 (en) * 2004-12-03 2013-12-10 Google Inc. Using game responses to gather data
KR20180041699A (ko) * 2015-12-03 2018-04-24 구글 엘엘씨 이미지 기반의 captcha 과제
KR101797856B1 (ko) * 2016-02-24 2017-11-15 라인 가부시키가이샤 메신저 서비스를 이용한 인공지능 학습 방법 및 시스템, 그리고 인공지능을 이용한 답변 중계 방법 및 시스템
KR20180130925A (ko) * 2017-05-30 2018-12-10 국방과학연구소 머신 러닝을 위한 학습 이미지를 자동 생성하는 인공 지능 장치 및 그의 제어 방법
KR101854804B1 (ko) * 2017-11-17 2018-05-04 한국과학기술정보연구원 텍스트와 연관된 개체명을 결정하기 위한 사용자 인증 서비스 제공 및 학습 데이터 구축 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023087215A1 (en) * 2021-11-18 2023-05-25 Citrix Systems, Inc. Online meeting non-participant detection and remediation

Also Published As

Publication number Publication date
US11798268B2 (en) 2023-10-24
KR20200087345A (ko) 2020-07-21
KR102189307B1 (ko) 2020-12-09
US20220084311A1 (en) 2022-03-17

Similar Documents

Publication Publication Date Title
WO2021080102A1 (en) Method for training and testing adaption network corresponding to obfuscation network capable of processing data to be concealed for privacy, and training device and testing device using the same
WO2018048118A1 (en) Server and method for controlling external device
WO2019216529A1 (en) Electronic apparatus and controlling method thereof
WO2017131348A1 (en) Electronic apparatus and controlling method thereof
WO2015009067A1 (en) Method of arranging image filters, computer-readable storage medium on which method is stored, and electronic apparatus
WO2012134180A2 (ko) 문장에 내재한 감정 분석을 위한 감정 분류 방법 및 컨텍스트 정보를 이용한 다중 문장으로부터의 감정 분류 방법
WO2020138745A1 (en) Image processing method, apparatus, electronic device and computer readable storage medium
WO2019000462A1 (zh) 人脸图像处理方法、装置、存储介质及电子设备
WO2020168606A1 (zh) 广告视频优化方法、装置、设备及计算机可读存储介质
WO2019135475A1 (en) Electronic apparatus and control method thereof
WO2015137666A1 (ko) 오브젝트 인식 장치 및 그 제어 방법
WO2018008881A1 (ko) 단말장치 및 서비스서버, 그 장치에 의해 수행되는 진단분석 서비스를 제공하기 위한 방법 및 프로그램과, 그 프로그램이 기록된 컴퓨터 판독 가능 기록매체
WO2012130145A1 (zh) 获取和搜索相关知识信息的方法及装置
WO2018084326A1 (ko) 실시간 상담을 제공하기 위한 방법 및 서버
WO2021091171A1 (en) Electronic device and method for controlling the same, and storage medium
WO2019054792A1 (ko) 컨텐트를 제공하는 방법 및 단말기
WO2020141745A1 (ko) 집단 지성 기반의 상호 검증을 이용한 인공지능 기반 객체인식 신뢰도 향상 방법
WO2021006482A1 (en) Apparatus and method for generating image
WO2017071348A1 (zh) 网络接入方法、服务器、终端及系统
WO2022265372A1 (ko) 건설 현장 근로자 관리 방법 및 이를 실행하는 서버
WO2023191129A1 (ko) 법안 및 법규정에 대한 모니터링 방법 및 이를 위한 프로그램
WO2019190142A1 (en) Method and device for processing image
EP3707678A1 (en) Method and device for processing image
WO2019124762A1 (ko) 방송 서비스의 반송률 측정 장치
WO2011068315A4 (ko) 최대 개념강도 인지기법을 이용한 최적의 데이터베이스 선택장치 및 그 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19908035

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19908035

Country of ref document: EP

Kind code of ref document: A1