KR102202788B1 - 모조품 판별을 위한 인공지능 장치 및 방법 - Google Patents

모조품 판별을 위한 인공지능 장치 및 방법 Download PDF

Info

Publication number
KR102202788B1
KR102202788B1 KR1020200053207A KR20200053207A KR102202788B1 KR 102202788 B1 KR102202788 B1 KR 102202788B1 KR 1020200053207 A KR1020200053207 A KR 1020200053207A KR 20200053207 A KR20200053207 A KR 20200053207A KR 102202788 B1 KR102202788 B1 KR 102202788B1
Authority
KR
South Korea
Prior art keywords
neural network
image
artificial neural
checked
genuine
Prior art date
Application number
KR1020200053207A
Other languages
English (en)
Inventor
김명전
Original Assignee
주식회사 아우라제이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아우라제이 filed Critical 주식회사 아우라제이
Priority to KR1020200053207A priority Critical patent/KR102202788B1/ko
Priority to KR1020210002179A priority patent/KR102307619B1/ko
Application granted granted Critical
Publication of KR102202788B1 publication Critical patent/KR102202788B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/018Certifying business or products
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Artificial Intelligence (AREA)
  • Marketing (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

본 발명에서는 모조품의 이미지를 인공 신경망으로 분석하여 판별하는 장치 및 방법이 개시된다.
본 발명의 일 실시예에 따른 인공지능 모조품 판별 장치는 영상을 촬영하는 카메라부, 사용자에게 데이터를 출력하고 사용자의 입력 데이터를 수신하는 인터페이스부, 및 카메라부 및 인터페이스부를 제어하는 제어부를 포함하며, 제어부는 카메라부를 통하여 촬영된 확인 대상 객체의 영상을 인공 신경망으로 분석하여 확인 대상 객체가 진품인지 여부를 판단할 수 있다.

Description

모조품 판별을 위한 인공지능 장치 및 방법{ARTIFICIAL INTELLIGENCE DEVICE AND METHOD FOR DISCRIMINATING COUNTERFEITS}
본 발명은 모조품을 판별하기 위한 기술로서 특히, 모조품의 이미지를 인공 신경망으로 분석하여 판별하는 장치 및 방법에 관한 것이다.
인공 신경망은 기계학습과 인지과학에서 생물학의 신경망에서 영감을 얻은 통계학적 학습 알고리즘이다. 인공 신경망은 시냅스의 결합으로 네트워크를 형성한 인공 뉴런이 학습을 통해 시냅스의 결합 세기를 변화시켜, 문제 해결 능력을 가지는 모델 전반을 가리킨다.
최근에는 인경 신경망을 이용하여 이미지의 유사도를 추정하는 기술에 대한 연구가 활발히 진행되고 있다. 대한민국 등록특허 제10-1916347호는 인공 신경망을 이용하여 이미지를 비교하는 방법을 개시한다.
모조품의 이미지를 인공 신경망으로 분석하여 판별하는 장치 및 방법을 제공하는데 목적이 있다.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
일 양상에 따르면, 인공지능 모조품 판별 장치는 영상을 촬영하는 카메라부; 사용자에게 데이터를 출력하고 사용자의 입력 데이터를 수신하는 인터페이스부; 및 카메라부 및 인터페이스부를 제어하는 제어부;를 포함하며, 제어부는 카메라부를 통하여 촬영된 확인 대상 객체의 영상을 인공 신경망으로 분석하여 확인 대상 객체가 진품인지 여부를 판단할 수 있다.
제어부는 인터페이스부를 제어하여 사용자에게 진품 판별을 원하는 확인 대상 객체의 전체 외관을 촬영하도록 지시하는 메시지를 출력할 수 있다.
제어부는 제품 모델명으로 레이블 된 제품의 영상 데이터를 포함하는 학습 데이터를 이용하여 학습된 제 1 인공 신경망을 포함하며, 카메라부를 통하여 수신한 확인 대상 객체의 전체 외관 영상을 제 1 인공 신경망에 입력하여 확인 대상 객체의 제품 모델명을 추정할 수 있다.
제어부는 인터페이스부를 제어하여 제품 모델 별 하나 이상의 확인 대상 지점에 대한 촬영을 지시하는 메시지를 출력하며, 카메라부를 통하여 지시된 확인 대상 지점에 대한 영상을 수신할 수 있다.
제어부는 제품 모델별로 진품 및 모조품에 대한 레이블이 부여된 이미지 데이터를 포함하는 학습 데이터로 학습된 제 2 인공 신경망을 포함하며, 제 2 인공 신경망은 확인 대상 지점에 대한 영상, 확인 대상 지점에 대한 정보 및 제품 모델명을 입력 받아 진품 가능성을 판단할 수 있다.
제어부는 영상에 포함된 문자의 글자체, 크기, 간격 및 굵기를 비교하여 유사도를 판단하도록 학습된 제 3 인공 신경망; 금속 장식의 모양, 크기, 굵기를 비교하여 유사도를 판단하도록 학습된 제 4 인공 신경망; 및 박음질 된 실의 굵기, 간격 및 모양을 비교하여 유사도를 판단하도록 학습된 제 5 인공 신경망을 포함할 수 있다.
제어부는 확인 대상 지점에 대한 영상이 문자에 대한 이미지를 포함하는 경우, 제 3 인공 신경망에 확인 대상 지점에 대한 영상을 입력하여 유사도를 판단하며, 확인 대상 지점에 대한 영상이 금속 장치에 대한 이미지를 포함하는 경우, 제 4 인공 신경망에 확인 대상 지점에 대한 영상을 입력하여 유사도를 판단하며, 확인 대상 지점에 대한 영상이 박음질에 대한 이미지를 포함하는 경우, 제 5 인공 신경망에 확인 대상 지점에 대한 영상을 입력하여 유사도를 판단할 수 있다.
제어부는 제 3 인공 신경망, 제 4 인공 신경망 및 제 5 인공 신경망의 유사도가 소정 값 이상인지 여부를 판단하여 진품 가능성을 판단할 수 있다.
제어부는 확인 대상 지점에 대한 영상에 대한 진품 가능성을 판단한 결과 모조품으로 판단되는 경우, 확인 대상 지점에 대한 영상에 모조품 레이블을 부여하여 제 2 인공 신경망, 제 3 인공 신경망, 제 4 인공 신경망 및 제 5 인공 신경망 중 적어도 하나를 학습시킬 수 있다.
다른 양상에 따르면, 인공지능 모조품 판별 시스템은 카메라를 통하여 확인 대상 객체를 촬영하는 사용자 단말 및 사용자 단말로부터 수신한 확인 대상 객체의 영상을 인공 신경망으로 분석하여 확인 대상 객체가 진품인지 여부를 판단하는 서버를 포함할 수 있다.
본 발명은 모바일 단말을 이용하여 모조품의 이미지를 인공 신경망으로 분석하여 모조품 여부를 판별하는 기술을 제공함으로써 일반 소비자가 쉽고 정확하게 모조품을 판별할 수 있는 효과가 있다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명의 특정한 바람직한 실시예들의 상기에서 설명한 바와 같은 또한 다른 측면들과, 특징들 및 이득들은 첨부 도면들과 함께 처리되는 하기의 설명으로부터 보다 명백하게 될 것이다.
도 1은 일 실시예에 따른 인공지능 모조품 판별 장치의 구성도이다.
도 2는 일 예에 따른 진품을 판별하는 방법을 설명하기 위한 예시도이다.
도 3은 일 예에 따른 인공 신경망의 동작 방법을 설명하기 위한 예시도이다.
도 4는 일 예에 따른 진품을 판별하는 방법을 설명하기 위한 예시도이다.
도 5 내지 도 6은 일 예에 따른 인공 신경망의 동작 방법을 설명하기 위한 예시도이다.
도 7은 일 실시예에 따른 인공지능 모조품 판별 시스템을 나타내는 블록도이다.
상기 도면들을 통해, 유사 참조 번호들은 동일한 혹은 유사한 엘리먼트들과, 특징들 및 구조들을 도시하기 위해 사용된다는 것에 유의해야만 한다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
실시예를 설명함에 있어서 본 발명이 속하는 기술 분야에 익히 알려져 있고 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 요지를 흐리지 않고 더욱 명확히 전달하기 위함이다.
마찬가지 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 개략적으로 도시되었다. 또한, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. 각 도면에서 동일한 또는 대응하는 구성요소에는 동일한 참조 번호를 부여하였다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
이때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
본 발명의 실시예들을 구체적으로 설명함에 있어서, 특정 시스템의 예를 주된 대상으로 할 것이지만, 본 명세서에서 청구하고자 하는 주요한 요지는 유사한 기술적 배경을 가지는 여타의 통신 시스템 및 서비스에도 본 명세서에 개시된 범위를 크게 벗어나지 아니하는 범위에서 적용 가능하며, 이는 당해 기술분야에서 숙련된 기술적 지식을 가진 자의 판단으로 가능할 것이다.
이하, 인공지능 모조품 판별 장치 및 방법의 실시예들을 도면들을 참고하여 자세히 설명한다.
도 1은 일 실시예에 따른 인공지능 모조품 판별 장치의 구성도이다.
도 1을 참조하면, 인공지능 모조품 판별 장치(100)는, 영상을 촬영하는 카메라부(110), 사용자에게 데이터를 출력하고 사용자의 입력 데이터를 수신하는 입출력 인터페이스부(120)를 포함하고, 상기 카메라부(110) 및 상기 입출력 인터페이스부(120)를 제어하는 제어부(130)를 포함할 수 있다.
일 실시예에 따르면, 제어부(130)는 카메라부(110)를 통하여 촬영된 확인 대상 객체의 영상을 인공 신경망으로 분석하여 확인 대상 객체가 진품인지 여부를 판단할 수 있다.
일 예로, 제어부(130)는 확인 대상 객체의 전체 이미지, 부분 이미지 등을 수신하여 인공 신경망을 통하여 진품 이미지와 유사도를 판단할 수 있다. 또는, 제어부(130)는 진품 또는 모조품으로 레이블(label) 된 이미지 데이터를 포함하는 학습 데이터로 학습된 인공 신경망에 확인 대상 객체의 이미지를 입력하여 진품인지 또는 모조품인지에 대한 결과를 얻을 수 있다.
여기서의 인공 신경망은 RNN(Recurrent Neural Network), DNN(Deep Neural Network) 및 DRNN(Dynamic Recurrent Neural Network) 등 다양한 모델들을 활용할 수 있을 것이다. 여기서 RNN은 현재의 데이터와 과거의 데이터를 동시에 고려하는 딥 러닝 기법으로서, 순환 신경망(RNN)은 인공 신경망을 구성하는 유닛 사이의 연결이 방향성 사이클(directed cycle)을 구성하는 신경망을 나타낸다. 나아가, 순환 신경망(RNN)을 구성할 수 있는 구조에는 다양한 방식이 사용될 수 있는데, 예컨대, 완전순환망(Fully Recurrent Network), 홉필드망(Hopfield Network), 엘만망(Elman Network), ESN(Echo state network), LSTM(Long short term memory network), 양방향(Bi-directional) RNN, CTRNN(Continuous-time RNN), 계층적 RNN, 2차 RNN 등이 대표적인 예이다. 또한, 순환 신경망(RNN)을 학습시키기 위한 방법으로서, 경사 하강법, Hessian Free Optimization, Global Optimization Method 등의 방식이 사용될 수 있다.
일 실시예에 따르면, 제어부(130)는 입출력 인터페이스부(120)를 제어하여 사용자에게 진품 판별을 원하는 확인 대상 객체의 전체 외관을 촬영하도록 지시하는 메시지를 출력할 수 있다.
또한 카메라부(110)는 촬영된 영상 내에 포함되는 객체를 추출하여 객체 정보를 획득할 수 있다. 카메라부(110)는 HOG(Histogram of Oriented Gradient), Haar-like feature, Co-occurrence HOG, LBP(local binary pattern), FAST(features from accelerated segment test) 등과 같은 객체 특징 추출을 위한 다양한 알고리즘을 통하여, 상기 촬영된 영상 내 객체의 윤곽선 또는 상기 객체에서 추출할 수 있는 글씨(또는 정보를 나타내는 윤곽선(또는 외형))를 획득할 수 있다. 또한, 제어부(130)는 촬영된 영상에서 객체를 영상 분석을 통해 인식(또는 식별)하고, 상기 인식된 객체에 대응되는 영역을 마스킹 처리하여 마스킹 영상 정보를 생성할 수 있다. 이때, 마스킹 처리 과정은, 예를 들면, 차분영상 방법, GMM(Gaussian Mixture Models)을 이용하는 MOG(Model of Gaussian) 알고리즘, 코드북(Codebook) 알고리즘 등과 같은 객체와 배경을 분리하기 위한 배경 모델링을 통해 객체에 해당하는 객체 후보 영역을 추출하는 방법을 이용함으로써 객체 정보를 추출 및/또는 획득할 수 있다.
도 2를 참조하면, 제어부(130)는 입출력 인터페이스부(120)에 '제품 사진을 찍어주세요...'와 같은 메시지(121)를 출력할 수 있다. 이후, 사용자는 해당 메시지를 보고 진품 여부를 판별하고 싶은 확인 대상 객체(200)를 카메라부(110)로 촬영할 수 있다.
일 예로, 제어부(130)는 입출력 인터페이스부(120)를 제어하여 메시지(121)와 함께 사진을 어떻게 찍어야 하는지 알려주기 위한 샘플 이미지를 출력할 수 있다. 예를 들어, 사용자가 가방에 대한 진품을 판단하고 싶은 경우, 제어부(130)는 가방 전체가 나타나는 이미지를 출력하여 사용자로 하여금 해당 이미지와 같이 사진을 찍도록 유도할 수 있다.
일 예로, 제어부(130)는 입출력 인터페이스부(120)를 제어하여 카메라부(110)를 통하여 촬영되고 있는 또는 촬영된 영상(123)을 출력할 수 있다. 도 2에서와 같이, 사용자는 메시지(121)를 확인 후, 확인 대상 객체(220)를 카메라로 촬영할 수 있으며, 촬영된 영상(123)이 입출력 인터페이스부(120)를 통해 출력될 수 있다.
일 예로, 제어부(130)는 촬영된 영상을 분석하여 해당 제품의 제조사 및 모델명 중 적어도 하나에 대한 정보(125)를 생성할 수 있다.
일 실시예에 따르면, 제어부(130)는 제품 모델명으로 레이블 된 제품의 영상 데이터를 포함하는 학습 데이터를 이용하여 학습된 제2 인공 신경망(131)을 포함할 수 있다.
일 예로, 학습 데이터는 제조사 별, 모델 별로 분류된 소정 제품의 이미지 각각에 제조사명, 모델명을 레이블링하여 생성된 데이터일 수 있다. 이로 인하여, 제2 인공 신경망(131)은 확인 대상 객체의 영상을 입력 받아 가장 유사한 이미지를 가지는 제품을 선정하여 해당 제품의 제조사 및 모델명을 찾아낼 수 있다.
일 예에 따르면, 제어부(130)는 입출력 인터페이스부(120)를 통하여 사용자로부터 직접 확인 대상 객체에 대한 정보를 입력 받을 수 있다. 예를 들어, 사용자가 확인 대상 제품의 제조사 및 모델명을 알고 있는 경우, 입출력 인터페이스부(120)를 통하여 해당 정보를 직접 입력할 수 있다.
일 실시예에 따르면, 제어부(130)는 카메라부(110)를 통하여 수신한 확인 대상 객체의 전체 외관 영상을 제2 인공 신경망(131)에 입력하여 확인 대상 객체의 제품 모델명을 추정할 수 있다.
도 2를 참조하면, 제어부(130)는 사용자가 확인 대상 객체(200)를 촬영한 이미지를 분석하여 해당 확인 대상 객체의 제조사 및 모델명을 포함하는 제품 정보(125)를 출력할 수 있다.
도 3을 참조하면, 제어부(130)는 제1 인공 신경망(131)을 포함할 수 있으며, 제1 인공 신경망(131)은 확인 대상 객체의 이미지를 입력을 수신할 수 있다. 이후, 제1 인공 신경망(131)은 확인 대상 객체와 가장 유사도가 높은 제품에 대한 제조사 및 모델명 중 적어도 하나를 포함하는 제품 정보를 생성하여 출력할 수 있다.
일 실시예에 따르면, 제어부(130)는 입출력 인터페이스부(120)를 제어하여 제품 모델 별 하나 이상의 확인 대상 지점에 대한 촬영을 지시하는 메시지를 출력할 수 있다.
도 4를 참조하면, 제어부(130)는 인터페이스부를 제어하여 '손잡이 사진을 찍어주세요'와 같은 메시지(121(a))를 출력할 수 있다. 또한, 제어부(130)는 확인 대상 객체의 TC코드, 로고(또는 로고 모양), 특정 무늬, 특정 문자, 금속 장식, 박음질 중 적어도 하나에 대하여 촬영을 하도록 메시지를 출력할 수 있다. 여기서 TC코드는 제품의 생산지와 제조년월을 알려주는 코드번호일 수 있다.
일 예로, 제어부(130)는 확인 대상 객체별로 다른 부분을 촬영하도록 지시할 수 있다. 예를 들어, 제품 A의 경우 로고 모양과 박음질에 특징이 있는 경우, 해당 부분에 대하여 촬영을 하도록 지시할 수 있다. 또한 제어부(130)에 의해 상기 제품 A는 로고 모양과 박음질에 특징이 있는 설정된 경우, 로고 모양과 박음질 부분(영역)에 대하여 촬영을 하도록 지시하는 명령어를 생성하여 입출력 인터페이스부(120)를 통하여 출력하도록 제어할 수 있다. 반면, 제품 B의 경우, 모델명이 기재된 문자와 금속 장식에 특징이 있는 경우, 해당 부분에 대하여 촬영을 하도록 지시할 수 있다. 또한 제어부(130)에 의해 상기 제품 B는 모델명이 기재된 문자와 금속 장식에 특징이 있는 설정된 경우, 모델명이 기재된 문자와 금속 장식 부분(영역)에 대하여 촬영을 하도록 지시하는 명령어를 생성하여 입출력 인터페이스부(120)를 통하여 출력하도록 제어할 수 있다.
일 예에 따르면, 제어부(130)는 인터페이스부를 제어하여 촬영이 필요한 확인 대상 객체의 부분을 지시하는 이미지(123(a))를 출력할 수 있다. 예를 들어, 확인 대상 객체의 손잡이 부분에 특징이 있는 경우, 제어부(130)는 도 4에서와 같이 손잡이 부분이 강조된 이미지(123(a))를 출력하여 사용자로 하여금 촬영을 수행할 부분이 어디인지 정확히 알 수 있도록 지원할 수 있다.
일 예로, 확인 대상 객체의 부분을 지시하는 이미지(123(a))는 실제 확인 대상 객체와 동일한 제품의 이미지를 이용하여 표시될 수 있다. 이를 위하여, 제어부(130)는 모델 별로 촬영이 필요한 부분을 표시할 수 있는 이미지를 미리 저장하고 있을 수 있으며, 제1 인공 신경망을 통하여 분석된 결과를 이용하여 해당 이미지를 읽어와 출력할 수 있다.
일 실시예에 따르면, 제어부(130)는 카메라부(110)를 통하여 지시된 확인 대상 지점에 대한 영상을 수신할 수 있다. 일 예로, 제어부(130)는 카메라부(110)를 통하여 사용자가 촬영한 확인 대상 객체의 영상을 수신할 수 있으며, 입출력 인터페이스부(120)를 제어하여 수신한 영상(125(a))을 출력할 수 있다.
일 실시예에 따르면, 제어부(130)는 제품 모델별로 진품 및 모조품에 대한 레이블이 부여된 이미지 데이터를 포함하는 학습 데이터로 학습된 제2 인공 신경망(133)을 포함할 수 있다.
일 예에 따르면, 학습 데이터는 고유한 특징이 있는 확인 대상 객체의 일부분에 대한 이미지에 진품 또는 모조품인지를 레이블링하여 생성한 데이터일 수 있다. 예를 들어, 제품 A가 손잡이 부분에 특징이 있는 경우, 제품 A의 진품 이미지 및 모조품 이미지에 각각 진품 및 모조품이라는 레이블(label)을 부여한 후 학습 데이터를 생성하여 제2 인공 신경망(133)을 학습시킬 수 있다. 일 예로, 제어부(130)는 제품 A의 진품 이미지에 진품 레이블을 매칭시켜 저장하고, 상기 제품 A의 모조품 이미지에 모조품 레이블을 매칭시켜 저장할 수 있다.
일 예에 따르면, 제2 인공 신경망(133)은 확인 대상 지점에 대한 영상, 확인 대상 지점에 대한 정보 및 제품 모델명을 입력 받아 진품 가능성을 판단할 수 있다.
도 5를 참조하면, 제2 인공 신경망(133)은 확인 대상 객체의 특징이 있는 확인 대상 지점에 대한 이미지를 입력 받을 수 있으며, 각각의 이미지를 분석하여 진품일 가능성을 계산할 수 있다. 예를 들어, 확인 대상 지점은 손잡이, 라벨, 박음질 등과 같은 부분일 수 있다.
일 예에 따르면, 제어부(130)는 하나 이상의 확인 대상 지점에 대한 진품 가능성을 기초로 확인 대상 객체가 진품인지 여부를 판단할 수 있다. 예를 들어, 제어부(130)는 진품 가능성이 소정의 임계치 이상인 경우 진품으로 판단할 수 있다. 일 예로, 제어부(130)는 진품 가능성이 85% 이상(또는 90% 초과)인 경우 진품으로 판단할 수 있다. 또한, 하나 이상의 확인 대상 지점 중 소정 개수 이상이 진품으로 판단된 경우 확인 대상 객체가 진품인 것으로 결정할 수 있다. 예를 들어, 도 3에서와 같이 3 개의 확인 대상 지점에 대하여 분석하는 경우, 제어부(130)는 3 곳이 모두 진품으로 판단되어야 확인 대상 객체가 진품인 것으로 결정할 수 있다. 이러한 경우, 1 번 및 2 번의 확인 대상 지점의 분석 결과가 85% 이상이나, 3번 확인 대상 지점의 진품 가능성이 85% 미만인 바, 제어부(130)는 확인 대상 객체가 모조품인 것으로 결정할 수 있다.
일 실시예에 따르면, 제어부(130)는 영상에 포함된 문자의 글자체, 크기, 간격 및 굵기를 비교하여 유사도를 판단하도록 학습된 제3 인공 신경망(135), 금속 장식의 모양, 크기, 굵기를 비교하여 유사도를 판단하도록 학습된 제4 인공 신경망(137) 및 박음질 된 실의 굵기, 간격 및 모양을 비교하여 유사도를 판단하도록 학습된 제5 인공 신경망(139) 중 적어도 하나를 포함할 수 있다.
일 예에 따르면, 제어부(130)는 확인 대상 지점에 대한 영상이 문자에 대한 이미지를 포함하는 경우, 제3 인공 신경망(135)에 확인 대상 지점에 대한 영상을 입력하여 유사도를 판단할 수 있다.
도 6을 참조하면, 제3 인공 신경망(135)은 진품에 대한 기준 데이터 및 확인 대상 객체에 대한 확인 대상 데이터를 입력 받을 수 있다. 이후, 제3 인공 신경망(135)은 두 개의 데이터를 비교하여 유사도를 판단할 수 있다. 예를 들어, 제3 인공 신경망(135)은 문자의 글자체, 크기, 간격 및 굵기를 비교하여 유사도를 판단할 수 있다.
도 6에서와 같이, 두 개의 문자가 글자체 등이 다른 경우, 제3 인공 신경망(135)은 두 개의 유사도를 낮게 판단하여 출력할 수 있다.
일 예에 따르면, 제어부(130)는 확인 대상 지점에 대한 영상이 금속 장치에 대한 이미지를 포함하는 경우, 제4 인공 신경망(137)에 확인 대상 지점에 대한 영상을 입력하여 유사도를 판단할 수 있다.
도 6을 참조하면, 제4 인공 신경망(137)은 진품에 대한 기준 데이터 및 확인 대상 객체에 대한 확인 대상 데이터를 입력 받을 수 있다. 이후, 제4 인공 신경망(137)은 두 개의 데이터를 비교하여 유사도를 판단할 수 있다. 예를 들어, 제4 인공 신경망(137)은 금속 장식의 모양, 크기, 굵기를 비교하여 유사도를 판단할 수 있다.
도 6에서와 같이, 금속 장식의 모양, 크기, 굵기 등이 유사한 경우(즉 금속 장식에 대한 유사도가 소정의 임계치를 초과하는 경우), 제4 인공 신경망(137)은 두 개의 데이터(즉, 기준 데이터 및 확인대상 데이터)에 대한 유사도를 높게 판단하여 출력할 수 있다.
일 예에 따르면, 제어부(130)는 확인 대상 지점에 대한 영상이 박음질에 대한 이미지를 포함하는 경우, 제5 인공 신경망(139)에 확인 대상 지점에 대한 영상을 입력하여 유사도를 판단할 수 있다.
도 6을 참조하면, 제5 인공 신경망(139)은 진품에 대한 기준 데이터 및 확인 대상 객체에 대한 확인 대상 데이터를 입력 받을 수 있다. 이후, 제5 인공 신경망(139)은 두 개의 데이터(즉, 기준 데이터 및 확인대상 데이터)를 비교하여 유사도를 판단할 수 있다. 예를 들어, 제5 인공 신경망(139)은 박음질 된 실의 굵기, 간격 및 모양을 비교하여 유사도를 판단할 수 있다.
도 6에서와 같이, 박음질 된 실의 굵기, 간격 및 모양 등이 유사한 경우, 제5 인공 신경망(139)은 두 개의 데이터(즉, 기준 데이터 및 확인대상 데이터) 간의 유사도를 높게 판단하여 출력할 수 있다.
일 실시예에 따르면, 제어부(130)는 제3 인공 신경망(135), 제4 인공 신경망(137) 및 제5 인공 신경망(139)의 유사도가 소정 값 이상인지 여부를 판단하여 진품 가능성을 판단할 수 있다.
예를 들어, 제어부(130)는 하나 이상의 확인 대상 지점에 대한 진품 가능성을 기초로 확인 대상 객체가 진품인지 여부를 판단할 수 있다. 예를 들어, 제어부(130)는 진품 가능성이 특정 임계치 이상인 경우 진품으로 판단할 수 있다. 일 예로, 제어부(130)는 진품 가능성이 85% 이상(또는 90% 초과)인 경우 진품으로 판단할 수 있다. 또한 하나 이상의 확인 대상 지점 중 소정 개수 이상이 진품으로 판단된 경우 확인 대상 객체가 진품인 것으로 결정할 수 있다.
예를 들어, 도 6에서와 같이 3개의 확인 대상 지점에 대하여 분석하는 경우, 제어부(130)는 3 곳이 모두 진품으로 판단되어야 확인 대상 객체가 진품인 것으로 결정할 수 있다. 이러한 경우, 3 번 및 3 번의 확인 대상 지점의 분석 결과가 85% 이상이나, 1번 확인 대상 지점의 진품 가능성이 85% 미만인 바, 제어부(130)는 확인 대상 객체가 모조품인 것으로 결정할 수 있다.
일 실시예에 따르면, 제어부(130)는 확인 대상 지점에 대한 영상에 대한 진품 가능성을 판단한 결과 모조품으로 판단되는 경우, 확인 대상 지점에 대한 영상에 모조품 레이블을 부여하여 제2 인공 신경망(133), 제3 인공 신경망(135), 제4 인공 신경망(137) 및 제5 인공 신경망(139) 중 적어도 하나를 학습시킬 수 있다.
일 예를 들어, 하나 이상의 확인 대상 지점을 분석한 결과, 일부 확인 대상 지점은 진품으로 판단되고 일부 확인 대상 지점은 모조품으로 판단되는 경우, 진품으로 판단된 부분을 인공 신경망이 잘못 판단한 것일 수 있다. 예를 들면, 제1 내지 제5 인공신경망 중 적어도 어느 하나는 진품으로 판단하였으나, 상기 제1 내지 제5 인공신경망 중 다른 적어도 어느 하나는 모조품(또는 가품)으로 판단하거나 진품이 아닌 것으로 판단할 수도 있다. 이에 따라, 기존 학습 데이터에 새로 판별한 이미지 데이터를 추가하여 인공 신경망을 학습 시킴으로써 인공 신경망의 신뢰도를 향상시킬 수 있다.
도 7은 일 실시예에 따른 인공지능 모조품 판별 시스템을 나타내는 블록도이다.
도 7을 참조하면, 인공지능 모조품 판별 시스템(700)은 카메라를 통하여 확인 대상 객체를 촬영하는 사용자 단말(720) 및 상기 사용자 단말(720)로부터 수신한 확인 대상 객체의 영상을 인공 신경망으로 분석하여 확인 대상 객체가 진품인지 여부를 판단하는 관리 서버(710)를 포함할 수 있다.
관리 서버(710)는 제어 모듈(810), 통신 모듈(820), 입력 모듈(830), 출력 모듈(840), 및 저장 모듈(850)을 포함할 수 있으며, 사용자 단말(720)은 제어 모듈(860), 통신 모듈(870), 입력 모듈(880), 출력 모듈(890)을 포함할 수 있다.
또한 전술한 인공지능 모조품 판별 장치(100)의 각 기능들은 관리 서버(710) 및 사용자 단말(720)에 의해 구현될 수 있으며, 이하 설명하는 관리 서버(710) 및 사용자 단말(720)의 각 기능들이 상기 인공지능 모조품 판별 장치(100)에 의해 결합되어 구현될 수도 있다.
제어 모듈(810, 860)은 본 발명의 일 실시예에 따른 동작/단계/과정을 구현할 수 있도록 관리 서버(710) 및/또는 사용자 단말(720)을 직/간접적으로 제어할 수 있다. 또한 제어 모듈(810, 860)은 적어도 하나의 프로세서를 포함할 수 있으며, 프로세서는 적어도 하나의 중앙 처리 유닛(CPU) 및/또는 적어도 하나의 그래픽 처리 디바이스(GPU)를 포함할 수 있다.
또한 제어 모듈(810, 860)은 API(Application Programming Interface), IoT(Internet of Things), IIoT(Industrial Internet of Things), ICT(Information & Communication Technology) 기술에 기반하여 제어 정보(예; 명령어) 등을 생성하거나 및/또는 관리할 수 있다.
통신 모듈(820, 870)은 관리 서버(710) 및/또는 사용자 단말(720) 등과 각종 데이터, 신호, 정보를 송수신할 수 있다. 또한, 통신 모듈(820, 870)은 무선 통신 모듈(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 또한, 통신 모듈(820, 870)은 제1 네트워크(예: 블루투스, WiFi direct 또는 IrDA(Infrared Data Association) 같은 근거리 통신 네트워크) 또는 제2 네트워크(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)으로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다.
입력 모듈(830, 880)은 관리 서버(710) 및/또는 사용자 단말(720)의 구성요소(예: 제어 모듈(810, 860) 등)에 사용될 명령 또는 데이터를 관리 서버(710) 및/또는 사용자 단말(720)의 외부(예: 사용자(예; 제1 사용자, 제2 사용자 등), 관리 서버(710)의 관리자 등)로부터 수신할 수 있다. 또한, 입력 모듈(830, 880)은 관리 서버(710) 및/또는 사용자 단말(720)에 설치된 터치인식가능 디스플레이, 터치패드, 버튼형 인식 모듈, 음성인식센서, 지문인식센서, 홍채인식센서, 마이크, 마우스, 또는 키보드 등을 포함할 수 있다. 여기서 터치인식가능 디스플레이, 터치패드, 버튼형 인식 모듈은 감압식 및/또는 정전식 방식을 통하여 사용자의 신체(예; 손가락)를 통한 터치를 인식할 수 있다.
출력 모듈(840, 890)은 관리 서버(710) 및/또는 사용자 단말(720)의 제어 모듈(810, 860)에 의해 생성되거나 통신 모듈(820, 870)을 통하여 획득된 신호(예; 음성 신호), 정보, 데이터, 이미지, 및/또는 각종 객체(object) 등을 표시하는 모듈이다. 예를 들면, 출력 모듈(840, 890)은 디스플레이, 스크린, 표시부(displaying unit), 스피커 및/또는 발광장치(예; LED 램프) 등을 포함할 수 있다.
또한, 관리 서버(710) 및/또는 사용자 단말(720)은 저장 모듈(storage module)(250)을 더 포함할 수 있으며, 관리 서버(710) 및/또는 사용자 단말(720)의 동작을 위한 기본 프로그램, 응용 프로그램, 설정 정보 등의 데이터를 저장한다. 또한, 저장 모듈(850)은 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), PROM(Programmable Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다. 또한, 저장 모듈(850)은 클라우드 서버(cloud server), 빅데이터(big data) 서버 등을 포함할 수도 있다.
또한 저장 모듈(850)은 사용자 단말(720)을 사용하는 고객(제1 사용자)의 개인정보, 및/또는 관리 서버(710)의 관리자(제2 사용자)의 개인정보 등을 저장할 수 있다. 여기서 개인정보는 이름, 아이디(ID; identifier), 패스워드, 도로명 주소, 전화 번호, 휴대폰 번호, 이메일 주소, 및/또는 관리 서버(710)에 의해 생성되는 리워드(reward)(예; 포인트 등)를 나타내는 정보 등을 포함할 수 있다. 또한 제어 모듈(810, 860)은 상기 저장 모듈(850)에 저장된 각종 이미지, 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행할 수 있다.
일 예에 따르면, 사용자 단말(720)은 하나 이상의 카메라를 포함할 수 있으며, 사용자가 카메라로 찍은 확인 대상 객체의 이미지를 서버에 전송할 수 있다.
일 예에 따르면, 사용자 단말(720)은 관리 서버(710)로부터 제어 신호를 수신할 수 있다. 이후, 사용자 단말(720)은 제어 신호에 기초하여 진품 판별을 원하는 확인 대상 객체의 전체 외관을 촬영하도록 사용자에게 지시하는 메시지를 출력할 수 있다.
일 예에 따르면, 관리 서버(710)는 제품 모델명으로 레이블 된 제품의 영상 데이터를 포함하는 학습 데이터를 이용하여 학습된 제2 인공 신경망(131)을 포함할 수 있다. 이후, 관리 서버(710)는 사용자 단말(720)로부터 수신한 확인 대상 객체의 전체 외관 영상을 제2 인공 신경망(131)에 입력하여 확인 대상 객체의 제품 모델명을 추정할 수 있다.
일 예에 따르면, 사용자 단말(720)은 서버로부터 제어 신호를 수신할 수 있으며, 수신한 제어 신호에 기초하여 사용자 단말(720)에 포함된 인터페이스를 제어하여 제품 모델 별 하나 이상의 확인 대상 지점에 대한 촬영을 지시하는 메시지를 출력할 수 있다. 이후, 사용자 단말(720)은 카메라를 통하여 지시된 확인 대상 지점에 대한 영상을 촬영하여 관리 서버(710)에 전송할 수 있다.
일 예에 따르면, 관리 서버(710)는 제품 모델별로 진품 및 모조품에 대한 레이블이 부여된 이미지 데이터를 포함하는 학습 데이터로 학습된 제2 인공 신경망(133)을 포함할 수 있다. 이후, 관리 서버(710)는 제2 인공 신경망(133)은 확인 대상 지점에 대한 영상, 확인 대상 지점에 대한 정보 및 제품 모델명을 입력 받아 진품 가능성을 판단할 수 있다.
일 예에 따르면, 관리 서버(710)는 영상에 포함된 문자의 글자체, 크기, 간격 및 굵기를 비교하여 유사도를 판단하도록 학습된 제3 인공 신경망(135), 금속 장식의 모양, 크기, 굵기를 비교하여 유사도를 판단하도록 학습된 제4 인공 신경망(137) 및 박음질 된 실의 굵기, 간격 및 모양을 비교하여 유사도를 판단하도록 학습된 제5 인공 신경망(139) 중 적어도 하나를 포함할 수 있다.
일 예에 따르면, 관리 서버(710)는 확인 대상 지점에 대한 영상이 문자에 대한 이미지를 포함하는 경우, 제3 인공 신경망(135)에 확인 대상 지점에 대한 영상을 입력하여 유사도를 판단할 수 있다.
일 예에 따르면, 관리 서버(710)는 확인 대상 지점에 대한 영상이 금속 장치에 대한 이미지를 포함하는 경우, 제4 인공 신경망(137)에 확인 대상 지점에 대한 영상을 입력하여 유사도를 판단할 수 있다.
일 예에 따르면, 관리 서버(710)는 확인 대상 지점에 대한 영상이 박음질에 대한 이미지를 포함하는 경우, 제5 인공 신경망(139)에 확인 대상 지점에 대한 영상을 입력하여 유사도를 판단할 수 있다.
일 예에 따르면, 관리 서버(710)는 제3 인공 신경망(135), 제4 인공 신경망(137) 및 제5 인공 신경망(139)의 유사도가 소정 값 이상인지 여부를 판단하여 진품 가능성을 판단할 수 있다.
일 예에 따르면, 관리 서버(710)는 확인 대상 지점에 대한 영상에 대한 진품 가능성을 판단한 결과 모조품으로 판단되는 경우, 확인 대상 지점에 대한 영상에 모조품 레이블을 부여하여 제2 인공 신경망(133), 제3 인공 신경망(135), 제4 인공 신경망(137) 및 제5 인공 신경망(139) 중 적어도 하나를 학습시킬 수 있다.
그리고, 본 발명의 일 실시예는 다음과 같은 추가적인 특징을 포함할 수도 있다. 인공지능 모조품 판별 장치(100)는 상기 인공지능 모조품 판별 장치(100)에 내장되는 내부 배터리에 의해 구동될 수 있으며, 상기 인공지능 모조품 판별 장치(100)는 상기 내부 배터리의 잔류 전력에 기반하여 상이한 실행 모드로 구현될 수 있도록 상기 인공지능 모조품 판별 장치(100)의 제어부(130) 및/또는 관리 서버(710)의 제어 모듈(810)에 의해 제어될 수 있다.
제어부(130) 및/또는 제어 모듈(810)은 상기 내부 배터리의 잔류 전력에 대한 제1 임계값, 상기 제1 임계값보다 낮은 제2 임계값을 설정할 수 있다. 또한 상기 제어부(130) 및/또는 제어 모듈(810)은 상기 내부 배터리의 잔류 전력을 나타내는 잔류 전력 정보가 상기 제1 임계값보다 높은 전력을 나타내는 경우, 상기 인공지능 모조품 판별 장치(100)가 제1 실행 모드로써 동작하도록 제어할 수 있다. 상기 제1 실행 모드로 동작하는 인공지능 모조품 판별 장치(100)는 제3 인공신경망 내지 제5 인공신경망에 기반하여 제품이 진품인지 모조품인지에 대한 판단 결과를 획득할 수 있다. 또한 제1 실행 모드로 동작하는 인공지능 모조품 판별 장치(100)는 제3 인공신경망 내지 제5 인공신경망으로부터 획득한 판단 결과 중 과반 수 이상 즉 2개 또는 3개의 인공신경망이 진품으로 판단하는 경우에 상기 제품이 진품이라는 결과를 입출력 인터페이스부(120)를 통하여 출력할 수 있다. 제1 실행 모드로 동작하는 인공지능 모조품 판별 장치(100)는 3개의 인공신경망을 구동시키고 손잡이, 라벨, 박음질 부분에 대한 영상을 획득해야 한다는 점에서 전력 소모량이 상대적으로 높다고 할 수 있겠으나, 그 만큼 정확도 측면에서는 높은 효과를 기대할 수 있다고 본다.
또한 제어부(130) 및/또는 제어 모듈(810)은 상기 내부 배터리의 잔류 전력을 나타내는 잔류 전력 정보가 상기 제1 임계값 미만 상기 제2 임계값 이상인 전력을 나타내는 경우, 상기 인공지능 모조품 판별 장치(100)가 제2 실행 모드로써 동작하도록 제어할 수 있다. 상기 제2 실행 모드로 동작하는 인공지능 모조품 판별 장치(100)는 (영상에 포함된 문자의 글자체, 크기, 간격 및 굵기를 비교하여 유사도를 판단하도록 학습된) 제3 인공신경망에 기반하여 제품이 진품인지 모조품인지에 대한 판단 결과를 획득할 수 있다. 상기 제3 인공신경망이 진품으로 판단하는 경우에 상기 제품이 진품이라는 결과를 입출력 인터페이스부(120)를 통하여 출력할 수 있다. 상기 제2 실행 모드로 동작하는 인공지능 모조품 판별 장치(100)는 인공신경망을 구동시키고 손잡이, 라벨, 박음질 부분에 대한 영상을 획득해야 한다는 점에서 후술하는 (인공신경망을 이용하지 않는) 제3 실행 모드보다는 전력 소모량이 상대적으로 낮다고 할 수 있다.
또한 상기 제어부(130) 및/또는 제어 모듈(810)은 상기 내부 배터리의 잔류 전력을 나타내는 잔류 전력 정보가 상기 제2 임계값보다 낮은 전력을 나타내는 경우, 상기 인공지능 모조품 판별 장치(100)가 제3 실행 모드로써 동작하도록 제어할 수 있다. 상기 제3 실행 모드로 동작하는 인공지능 모조품 판별 장치(100)는 입출력 인터페이스부(120)를 통하여 진품 확인이 필요한 제품에 기재된 제조사, 모델명, TC코드 중 적어도 어느 하나를 사용자로부터 획득할 수 있다. 상기 인공지능 모조품 판별 장치(100)는 진품에 대한 제조사, 모델명, TC코드의 매칭 정보를 기록하고 있을 수 있으며, 상기 사용자가 입력한 제조사, 모델명, TC코드에 대한 정보가 상기 매칭 정보에 대응되면, 상기 인공지능 모조품 판별 장치(100)는 상기 제품이 진품이라는 결과를 입출력 인터페이스부(120)를 통하여 출력할 수 있다. 상기 제3 실행 모드로 동작하는 인공지능 모조품 판별 장치(100)는 인공신경망을 구동시키지 않기에 다른 실행 모드보다는 저전력 모드로서 동작될 수 있으나, 사용자가 제조사, 모델명, TC코드에 대한 정보를 직접 입력해야 한다는 불편함이 있다고 볼 수 있다.
그리고, 본 발명의 일 실시예는 다음과 같은 추가적인 특징을 포함할 수도 있다. 예를 들면, 카메라부(110)의 촬영 기능은 사용자 단말(720)의 카메라 장치를 통하여 구현되고, 상기 카메라부(110)의 객체 추출 기능은 관리 서버(710)의 제어 모듈(810)에 의해 구현될 수 있다. 또한 제1 인공 신경망 내지 제5 인경 신경망 중 적어도 어느 하나는 인공지능 모조품 판별 장치(100)가 아닌 관리 서버(710)의 제어 모듈(810)에 의해 구현될 수도 있으며, 이를 위해 인공지능 모조품 판별 장치(100)와 관리 서버(710)는 상호 간에 각종 신호 및/또는 정보를 송수신할 수 있다.
본 발명의 일 양상은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있다. 상기의 프로그램을 구현하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함할 수 있다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 디스크 등을 포함할 수 있다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드로 작성되고 실행될 수 있다.
이제까지 본 발명에 대하여 그 바람직한 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 범위는 전술한 실시 예에 한정되지 않고 특허 청구범위에 기재된 내용과 동등한 범위 내에 있는 다양한 실시 형태가 포함되도록 해석되어야 할 것이다.

Claims (5)

  1. 모조품 판별을 위한 인공지능 장치에 있어서,
    실시간 영상을 촬영하는 카메라부;
    사용자에게 데이터를 출력하고 사용자의 입력 데이터를 수신하는 인터페이스부;
    상기 카메라부 및 상기 인터페이스부를 제어하는 제어부; 및
    상기 인공지능 장치의 구동을 위한 전력을 공급하고 충전하는 내부 배터리; 를 포함하며,
    상기 제어부는,
    복수의 제조사와 복수의 제품 모델명에 레이블된 복수의 영상 데이터를 제1 학습 데이터로써 제1 인공 신경망을 학습시키도록 제어하고,
    상기 카메라부를 통하여 촬영한 확인 대상 객체의 전체 외관을 나타내는 제1 영상을 상기 제1 인공 신경망에 입력함으로써, 상기 확인 대상 객체의 제품 모델명을 추정하는 추정 정보를 상기 학습된 제1 인공 신경망으로부터 획득하고,
    상기 제어부는,
    상기 복수의 제품 모델별 진품 및 모조품 각각에 대한 전체 외관을 나타내는 제1 이미지 데이터를 제2 학습 데이터로써 제2 인공 신경망을 학습시키도록 제어하고,
    상기 복수의 제품 모델별 진품 및 모조품 각각에 대한 특정 문자를 나타내는 제2 이미지 데이터를 제3 학습 데이터로써 제3 인공 신경망을 학습시키도록 제어하고,
    상기 복수의 제품 모델별 진품 및 모조품 각각에 대한 금속 장식을 나타내는 제3 이미지 데이터를 제4 학습 데이터로써 제4 인공 신경망을 학습시키도록 제어하고,
    상기 복수의 제품 모델별 진품 및 모조품 각각에 대한 박음질을 나타내는 제4 이미지 데이터를 제5 학습 데이터로써 제5 인공 신경망을 학습시키도록 제어하고,
    복수의 확인 대상 지점에 대한 촬영을 지시하는 메시지를 상기 인터페이스부를 통하여 출력(output)하되, 상기 복수의 확인 대상 지점은 상기 확인 대상 객체에 존재하는 특정 문자에 상응하는 제1 지점, 상기 확인 대상 객체에 존재하는 금속 장식에 상응하는 제2 지점 및 상기 확인 대상 객체에 존재하는 박음질에 상응하는 제3 지점을 포함하고,
    상기 제1 지점에 대한 제2 영상, 상기 제2 지점에 대한 제3 영상 및 상기 제3 지점에 대한 제4 영상을 상기 카메라부를 통하여 획득하고,
    상기 제2 영상, 상기 제3 영상, 상기 제4 영상 및 상기 추정 정보가 나타내는 제품 모델명을 상기 학습된 제2 인공 신경망에 입력함으로써, 상기 학습된 제2 인공 신경망으로부터 진품 가능성을 나타내는 제1 진품 가능성 정보를 획득하고,
    상기 제2 영상 및 상기 추정 정보가 나타내는 제품 모델명을 상기 학습된 제3 인공 신경망에 입력함으로써, 상기 학습된 제3 인공 신경망으로부터 진품 가능성을 나타내는 제2 진품 가능성 정보를 획득하고,
    상기 제3 영상 및 상기 추정 정보가 나타내는 제품 모델명을 상기 학습된 제4 인공 신경망에 입력함으로써, 상기 학습된 제4 인공 신경망으로부터 진품 가능성을 나타내는 제3 진품 가능성 정보를 획득하고,
    상기 제4 영상 및 상기 추정 정보가 나타내는 제품 모델명을 상기 학습된 제5 인공 신경망에 입력함으로써, 상기 학습된 제5 인공 신경망으로부터 진품 가능성을 나타내는 제4 진품 가능성 정보를 획득하고,
    상기 제1 진품 가능성 정보 내지 상기 제4 진품 가능성 정보 중에서 진품임을 나타내는 비율이 특정 임계치를 넘는 경우에만 상기 확인 대상 객체가 진품임을 나타내는 정보를 생성하는 것을 특징으로 하고,
    상기 제어부는,
    상기 내부 배터리의 잔류 전력을 나타내는 정보를 획득하고,
    제1 전력 임계값과, 상기 제1 전력 임계값보다 낮은 제2 전력 임계값을 설정하고,
    상기 잔류 전력이 상기 제1 전력 임계값 이상인 것으로 판단되는 경우에는, 상기 제1 진품 가능성 정보 내지 상기 제4 진품 가능성 정보를 획득하는 과정을 통하여 상기 확인 대상 객체가 진품임을 나타내는 정보를 생성하는 제1 실행 모드로 설정하고,
    상기 잔류 전력이 상기 제1 전력 임계값 미만 그리고 상기 제2 전력 임계값 이상인 것으로 판단되는 경우에는, 상기 제2 영상, 상기 제3 영상 및 상기 제4 영상 중에서 상기 제2 영상 만을 획득하고 상기 제2 영상을 상기 제2 인공 신경망 및 상기 제3 인공 신경망에 입력하는 과정을 통하여 상기 확인 대상 객체가 진품임을 나타내는 정보를 생성하는 제2 실행 모드로 설정하고,
    상기 잔류 전력이 상기 제2 전력 임계값 미만인 것으로 판단되는 경우에는, 상기 인터페이스부를 통하여 상기 확인 대상 객체에 대한 제조사, 모델명 및 TC 코드를 나타내는 정보를 입력 받고, 상기 입력받은 정보가 상기 인공지능 장치의 데이터베이스에 저장된 매칭 정보에 대응되면 상기 확인 대상 객체가 진품임을 나타내는 정보를 생성하는 제3 실행 모드로 설정하는 것을 특징으로 하는,
    인공지능 장치.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
KR1020200053207A 2020-05-04 2020-05-04 모조품 판별을 위한 인공지능 장치 및 방법 KR102202788B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200053207A KR102202788B1 (ko) 2020-05-04 2020-05-04 모조품 판별을 위한 인공지능 장치 및 방법
KR1020210002179A KR102307619B1 (ko) 2020-05-04 2021-01-07 인공지능에 기반하여 모조품을 판별하는 방법 및 그 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200053207A KR102202788B1 (ko) 2020-05-04 2020-05-04 모조품 판별을 위한 인공지능 장치 및 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210002179A Division KR102307619B1 (ko) 2020-05-04 2021-01-07 인공지능에 기반하여 모조품을 판별하는 방법 및 그 시스템

Publications (1)

Publication Number Publication Date
KR102202788B1 true KR102202788B1 (ko) 2021-01-14

Family

ID=74141806

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200053207A KR102202788B1 (ko) 2020-05-04 2020-05-04 모조품 판별을 위한 인공지능 장치 및 방법
KR1020210002179A KR102307619B1 (ko) 2020-05-04 2021-01-07 인공지능에 기반하여 모조품을 판별하는 방법 및 그 시스템

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020210002179A KR102307619B1 (ko) 2020-05-04 2021-01-07 인공지능에 기반하여 모조품을 판별하는 방법 및 그 시스템

Country Status (1)

Country Link
KR (2) KR102202788B1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102307619B1 (ko) * 2020-05-04 2021-10-01 주식회사 아우라제이 인공지능에 기반하여 모조품을 판별하는 방법 및 그 시스템
KR102407804B1 (ko) * 2021-10-13 2022-06-10 박예원 도매상 기반 의류 잡화 판매 및 구매 서비스 제공방법, 장치 및 시스템
KR102445252B1 (ko) * 2021-09-07 2022-09-20 주식회사 흥지연 판매자정보를 이용한 불법 상품 및 판매자 검출 방법 및 그를 위한 장치 및 시스템
KR102482969B1 (ko) * 2022-04-07 2022-12-29 주식회사 페이커즈 인공지능 기반 온라인 위조상품 단속 시스템 및 방법
KR20230058743A (ko) * 2021-10-25 2023-05-03 주식회사 성우하이텍 마스킹 기반 딥러닝 이미지 분류 시스템 및 그 방법
KR102568032B1 (ko) 2022-12-27 2023-08-18 (주) 케이씨넷 인공 지능을 이용한 진품 감정 시스템

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019008574A (ja) * 2017-06-26 2019-01-17 合同会社Ypc 物品判定装置、システム、方法及びプログラム
KR20190040731A (ko) * 2017-10-11 2019-04-19 주식회사 우디 이미지에 기초한 진품 판단 방법
KR102102572B1 (ko) * 2020-01-14 2020-04-20 유제술 온라인 쇼핑몰을 제공하는 시스템 및 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102202788B1 (ko) * 2020-05-04 2021-01-14 주식회사 아우라제이 모조품 판별을 위한 인공지능 장치 및 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019008574A (ja) * 2017-06-26 2019-01-17 合同会社Ypc 物品判定装置、システム、方法及びプログラム
KR20190040731A (ko) * 2017-10-11 2019-04-19 주식회사 우디 이미지에 기초한 진품 판단 방법
KR102102572B1 (ko) * 2020-01-14 2020-04-20 유제술 온라인 쇼핑몰을 제공하는 시스템 및 방법

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102307619B1 (ko) * 2020-05-04 2021-10-01 주식회사 아우라제이 인공지능에 기반하여 모조품을 판별하는 방법 및 그 시스템
KR102445252B1 (ko) * 2021-09-07 2022-09-20 주식회사 흥지연 판매자정보를 이용한 불법 상품 및 판매자 검출 방법 및 그를 위한 장치 및 시스템
KR102407804B1 (ko) * 2021-10-13 2022-06-10 박예원 도매상 기반 의류 잡화 판매 및 구매 서비스 제공방법, 장치 및 시스템
KR20230058743A (ko) * 2021-10-25 2023-05-03 주식회사 성우하이텍 마스킹 기반 딥러닝 이미지 분류 시스템 및 그 방법
KR102623979B1 (ko) * 2021-10-25 2024-01-11 주식회사 성우하이텍 마스킹 기반 딥러닝 이미지 분류 시스템 및 그 방법
KR102482969B1 (ko) * 2022-04-07 2022-12-29 주식회사 페이커즈 인공지능 기반 온라인 위조상품 단속 시스템 및 방법
KR20230144455A (ko) * 2022-04-07 2023-10-16 주식회사 페이커즈 인공지능 기반 온라인 위조상품 단속 시스템 및 방법
KR102650139B1 (ko) * 2022-04-07 2024-03-22 주식회사 페이커즈 인공지능 기반 온라인 위조상품 단속 시스템 및 방법
KR102568032B1 (ko) 2022-12-27 2023-08-18 (주) 케이씨넷 인공 지능을 이용한 진품 감정 시스템

Also Published As

Publication number Publication date
KR102307619B1 (ko) 2021-10-01

Similar Documents

Publication Publication Date Title
KR102202788B1 (ko) 모조품 판별을 위한 인공지능 장치 및 방법
CN107633204B (zh) 人脸遮挡检测方法、装置及存储介质
RU2743931C1 (ru) Система и способ обработки изображений с использованием глубинных нейронных сетей
US20220248091A1 (en) Sensitivity assessment for media production using artificial intelligence
WO2019033573A1 (zh) 面部情绪识别方法、装置及存储介质
US11935298B2 (en) System and method for predicting formation in sports
CN107832736B (zh) 实时人体动作的识别方法和实时人体动作的识别装置
US11816876B2 (en) Detection of moment of perception
CN110334658B (zh) 信息推荐方法、装置、设备和存储介质
KR20230079321A (ko) 챗봇 서비스를 제공하는 커뮤니케이션 시스템
KR20210048272A (ko) 음성 및 영상 자동 포커싱 방법 및 장치
CN109918983A (zh) 对用户进行登记的装置和方法
Alshamsi et al. Automated facial expression recognition app development on smart phones using cloud computing
US20210224522A1 (en) Electronic device and control method therefor
Jatain et al. Automatic human face detection and recognition based on facial features using deep learning approach
Goud et al. Smart attendance notification system using SMTP with face recognition
CN113378852A (zh) 关键点检测方法、装置、电子设备及存储介质
US20230316809A1 (en) Facial Emotion Recognition System
CN116994049A (zh) 全自动针织横机及其方法
KR102536992B1 (ko) 챗봇 서비스를 제공하는 커뮤니케이션 시스템
Bhutada et al. Emotion based music recommendation system
CN114255321A (zh) 采集宠物鼻纹的方法、装置、存储介质及电子设备
Maheswaran et al. A Perspective way of designing Intelligent systems with Face Detection and Recognition using Artificial Intelligence for Authentication
Oczon Song Recommendation Based on Mood using Viola–Jones and Local Binary Pattern Algorithms
Sharma et al. Automated Attendance System Using Face Recognition

Legal Events

Date Code Title Description
A107 Divisional application of patent
GRNT Written decision to grant