KR102260335B1 - Apparatus and method for classifying image change type based on artificial intelligence technology - Google Patents

Apparatus and method for classifying image change type based on artificial intelligence technology Download PDF

Info

Publication number
KR102260335B1
KR102260335B1 KR1020190128197A KR20190128197A KR102260335B1 KR 102260335 B1 KR102260335 B1 KR 102260335B1 KR 1020190128197 A KR1020190128197 A KR 1020190128197A KR 20190128197 A KR20190128197 A KR 20190128197A KR 102260335 B1 KR102260335 B1 KR 102260335B1
Authority
KR
South Korea
Prior art keywords
image
data
modulation
comparison result
image comparison
Prior art date
Application number
KR1020190128197A
Other languages
Korean (ko)
Other versions
KR20210045011A (en
Inventor
태현철
Original Assignee
한국생산기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국생산기술연구원 filed Critical 한국생산기술연구원
Priority to KR1020190128197A priority Critical patent/KR102260335B1/en
Publication of KR20210045011A publication Critical patent/KR20210045011A/en
Application granted granted Critical
Publication of KR102260335B1 publication Critical patent/KR102260335B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06K9/6267
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • G06K9/481
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Quality & Reliability (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Ophthalmology & Optometry (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 이미지 비교 기술에 관한 것으로서, 상세하게는 딥 러닝(deep-learning) 기반으로 학습된 모델을 이용해 원본 이미지의 변조가 인위적 변조인지 비정상적 변조인지를 분류할 수 있는 인공지능 기반 이미지 변조 분류 장치 및 방법에 관한 것이다. 이를 위해, 본 발명에 따른 인공지능 기반 이미지 변조 분류 장치는 이미지 편집 과정에서 발생하는 로그기록 데이터를 입력받아 패턴 데이터를 생성하는 패턴 데이터 생성부와, 원본 이미지와 편집 이미지를 분석하여 이미지 비교결과 데이터를 출력하는 이미지 비교부와, 딥 러닝(deep-learning) 기반으로 학습된 모델에 따라 상기 패턴 데이터와 이미지 비교결과 데이터를 입력받아 이미지의 변조 종류를 분류하는 분류부를 포함한다.The present invention relates to image comparison technology, and in particular, an artificial intelligence-based image modulation classification device that can classify whether the modulation of the original image is artificial modulation or abnormal modulation using a model trained based on deep-learning and methods. To this end, the artificial intelligence-based image modulation classification apparatus according to the present invention includes a pattern data generation unit that receives log record data generated in an image editing process and generates pattern data, and image comparison result data by analyzing the original image and the edited image It includes an image comparison unit that outputs , and a classification unit that receives the pattern data and image comparison result data according to a model learned based on deep-learning and classifies the modulation type of the image.

Description

인공지능 기반 이미지 변조 분류 장치 및 방법{Apparatus and method for classifying image change type based on artificial intelligence technology}Apparatus and method for classifying image change type based on artificial intelligence technology

본 발명은 이미지 비교 기술에 관한 것으로서, 상세하게는 딥 러닝(deep-learning) 기반으로 학습된 모델을 이용해 원본 이미지의 변조가 인위적 변조인지 비정상적 변조인지를 분류할 수 있는 인공지능 기반 이미지 변조 분류 장치 및 방법에 관한 것이다. The present invention relates to image comparison technology, and in particular, an artificial intelligence-based image modulation classification device that can classify whether the modulation of the original image is artificial modulation or abnormal modulation using a model trained based on deep-learning and methods.

기존의 이미지 분석 기술로는 히스토그램 비교기술, 특이점 분석 기술 등이 존재한다. Existing image analysis techniques include a histogram comparison technique, a singular point analysis technique, and the like.

히스토그램 비교기술은 히스토그램 각각의 색 농도를 비교하여 유사 정도를 분석하는 것이다. 히스토그램이란 픽셀의 색 농도 기준으로 구분한 것이다. 히스토그램 비교기술은 픽셀의 색 비교 분석과 유사하다고 말할 수 있다. 색을 기준으로 분석하기 때문에 이미지 형태가 같더라도 색이 변조될 경우 이를 감지할 수 있다. The histogram comparison technique analyzes the degree of similarity by comparing the color intensity of each histogram. A histogram is a division based on the color depth of a pixel. The histogram comparison technique can be said to be similar to the color comparison analysis of pixels. Because it analyzes based on color, even if the image shape is the same, if the color is modulated, it can be detected.

특이점 분석 기술은 이미지의 특이한 형태를 각각 선정하여 그 위치를 계산 및 비교하는 이미지 비교 방식이다. 특정 모서리나 이미지 부분의 위치가 다르면 다른 그림으로 인식하는 방법이다. 이는 이미지의 형태를 분석함으로써 모양이 달라지는 경우를 찾을 수 있도록 한다. Singularity analysis technology is an image comparison method that selects each specific shape of an image and calculates and compares its location. It is a method of recognizing a different picture if the position of a certain corner or image part is different. This makes it possible to find cases where the shape changes by analyzing the shape of the image.

히스토그램비교 기술은 기본적으로 픽셀 단위의 수치 비교를 기반으로 한다. 컴퓨터에서 픽셀 단위의 수치가 다르면 이미지가 다른 것으로 인식한다. 이는 상당히 큰 민감도로 표출할 수 있다. 즉, 픽셀 값에서 미세한 차이가 나더라도 이미지 비교 결과에 영향을 줄 수 있다는 것이다. Histogram comparison technology is basically based on pixel-wise numerical comparison. If the number of pixels is different on the computer, the image is recognized as different. This can be expressed with a fairly large sensitivity. That is, even a slight difference in pixel values can affect the image comparison result.

특이점 분석 기술 또한 특이 지점의 위치를 수치 비교분석하는 기술이다. 이 또한 민감한 결과를 도출할 가능성이 있다. The singular point analysis technique is also a technique for numerical comparison and analysis of the position of the singular point. This also has the potential to lead to sensitive results.

하지만 기본적으로 위의 두 기술 모두 인위적인 이미지의 변조를 구분하는 것은 불가능하다. 즉, 픽셀 단위의 수치나 특지 지점의 위치가 다르면 이미지가 변경되었다고 인식할 수 있으나, 그 변경이 편집 작업의 결과로 인한 것인지 어떤 비정상적인 원인에 의한 것인지를 전혀 알 수 없다. However, it is basically impossible to distinguish the artificial image modulation in both of the above techniques. That is, if the numerical value in units of pixels or the position of the special point is different, it can be recognized that the image has been changed, but it is impossible to know at all whether the change is due to the result of the editing operation or any abnormal cause.

인위적인 이미지 변조를 구분하기 위해서는 사람의 생각을 알아야 하는데 종래의 이미지 비교 분석 기술로는 사람의 생각이나 의도를 알 수 없으며 그에 따라 인위적 변조와 비정상적인 변조를 분류할 수 없다는 문제점이 있다. In order to distinguish the artificial image modulation, it is necessary to know the human thought. However, there is a problem that the human thought or intention cannot be known with the conventional image comparison and analysis technology, and accordingly, the artificial modulation and the abnormal modulation cannot be classified.

일본 등록특허 제4175413호Japanese Patent No. 4175413

본 발명은 상기와 같은 문제점을 해결하기 위해 창안된 것으로서, 본 발명의 목적은 원본 이미지에 변경이 발생했을 때 그 이미지 변조가 인위적 변조인지 비정상적 변조인지를 구분할 수 있도록 하는 것이다. The present invention was devised to solve the above problems, and an object of the present invention is to distinguish whether the image modulation is artificial modulation or abnormal modulation when an original image is changed.

이를 위해, 본 발명에 따른 인공지능 기반 이미지 변조 분류 장치는 이미지 편집 과정에서 발생하는 로그기록 데이터를 입력받아 패턴 데이터를 생성하는 패턴 데이터 생성부와, 원본 이미지와 편집 이미지를 분석하여 이미지 비교결과 데이터를 출력하는 이미지 비교부와, 딥 러닝(deep-learning) 기반으로 학습된 모델에 따라 상기 패턴 데이터와 이미지 비교결과 데이터를 입력받아 이미지의 변조 종류를 분류하는 분류부를 포함한다.To this end, the artificial intelligence-based image modulation classification apparatus according to the present invention includes a pattern data generation unit that receives log record data generated in an image editing process and generates pattern data, and image comparison result data by analyzing the original image and the edited image It includes an image comparison unit that outputs , and a classification unit that receives the pattern data and image comparison result data according to a model learned based on deep-learning and classifies the modulation type of the image.

또한, 본 발명에 따른 인공지능 기반 이미지 변조 분류 장치는 이미지 편집 과정에서 발생하는 로그기록 데이터를 입력받아 패턴 데이터를 생성하는 패턴 데이터 생성부와, 원본 이미지와 편집 이미지를 분석하여 이미지 비교결과 데이터를 출력하는 이미지 비교부와, 작업자의 눈이 편집 작업 화면의 어느 지점을 보고 있는지를 나타내는 초점 데이터를 생성하는 초점 데이터 생성부와, 딥 러닝(deep-learning) 기반으로 학습된 모델에 따라 패턴 데이터, 초점 데이터 및 이미지 비교결과 데이터를 입력받아 원본 이미지의 변조 종류를 분류하는 분류부를 포함한다. In addition, the artificial intelligence-based image modulation classification apparatus according to the present invention includes a pattern data generation unit that receives log record data generated in an image editing process and generates pattern data, and analyzes the original image and the edited image to generate image comparison result data. An image comparison unit to output, a focus data generation unit that generates focus data indicating which point on the editing screen the operator’s eyes are looking at, pattern data according to a model learned based on deep-learning, and a classification unit that receives focus data and image comparison result data and classifies modulation types of the original image.

또한, 본 발명에 따른 인공지능 기반 이미지 변조 분류 방법은 인공지능 기반 이미지 변조 분류 장치에서 이미지의 변조 종류를 분류하는 방법으로서, 이미지 편집 과정에서 발생하는 로그기록 데이터를 입력받아 패턴 데이터를 생성하는 패턴 데이터 생성 단계와, 원본 이미지와 편집 이미지를 분석하여 이미지 비교결과 데이터를 출력하는 이미지 비교 단계와, 딥 러닝(deep-learning) 기반으로 학습된 모델에 따라 상기 패턴 데이터와 이미지 비교결과 데이터를 입력받아 이미지의 변조 종류를 분류하는 이미지 변조 분류 단계를 포함한다.In addition, the artificial intelligence-based image modulation classification method according to the present invention is a method for classifying the modulation type of an image in an artificial intelligence-based image modulation classification apparatus, and a pattern for generating pattern data by receiving log record data generated in the image editing process A data generation step, an image comparison step of analyzing the original image and the edited image to output image comparison result data, and receiving the pattern data and image comparison result data according to a model learned based on deep-learning and an image modulation classification step of classifying a modulation type of the image.

또한, 본 발명에 따른 인공지능 기반 이미지 변조 분류 방법은 인공지능 기반 이미지 변조 분류 장치에서 이미지의 변조 종류를 분류하는 방법으로서, 이미지 편집 과정에서 발생하는 로그기록 데이터를 입력받아 패턴 데이터를 생성하는 패턴 데이터 생성 단계와, 원본 이미지와 편집 이미지를 분석하여 이미지 비교결과 데이터를 출력하는 이미지 비교 단계와, 작업자의 눈이 편집 작업 화면의 어느 지점을 보고 있는지를 나타내는 초점 데이터를 생성하는 초점 데이터 생성 단계와, 딥 러닝(deep-learning) 기반으로 학습된 모델에 따라 상기 패턴 데이터, 초점 데이터 및 이미지 비교결과 데이터를 입력받아 이미지의 변조 종류를 분류하는 이미지 변조 분류 단계를 포함한다. In addition, the artificial intelligence-based image modulation classification method according to the present invention is a method for classifying the modulation type of an image in an artificial intelligence-based image modulation classification apparatus, and a pattern for generating pattern data by receiving log record data generated in the image editing process A data generation step, an image comparison step of analyzing the original image and the edited image to output image comparison result data, a focus data generation step of generating focus data indicating which point on the editing screen the operator’s eyes are looking at; , an image modulation classification step of classifying a modulation type of an image by receiving the pattern data, focus data, and image comparison result data according to a model learned based on deep-learning.

상술한 바와 같이, 본 발명은 딥 러닝(deep-learning) 기반으로 학습된 모델을 이용해 원본 이미지의 변조가 인위적 변조인지 비정상적 변조인지를 분류할 수 있는 효과가 있다. As described above, the present invention has the effect of classifying whether the modulation of the original image is artificial modulation or abnormal modulation using a model trained based on deep-learning.

종래의 이미지 비교 기술은 컴퓨터가 어느 정도의 다름을 수치적으로 파악하여 결과를 도출하였지만 사람이 원하는 변조의 종류를 구분하는데 적용할 수 없었다. 그러나 본 발명에 따른 이미지 변조 분류 기술을 이용하게 되면, 작업자 혹은 디자이너가 원하는 방식의 이미지 비교를 수행할 수 있는 효과를 거둘 수 있다. In the conventional image comparison technique, a computer numerically grasps the degree of difference and derives the result, but it cannot be applied to distinguish the type of modulation desired by a person. However, if the image modulation classification technique according to the present invention is used, an effect that an operator or a designer can perform image comparison in a desired manner can be achieved.

도 1은 본 발명에 따른 인공지능 기반 이미지 변조 분류 장치의 내부 구성을 나타낸 도면.
도 2는 본 발명의 다른 실시예에 따른 인공지능 기반 이미지 변조 분류 장치의 내부 구성을 나타낸 도면.
도 3은 본 발명에 따른 분류부의 내부 구성을 나타낸 도면.
도 4는 본 발명에 따른 인공지능 기반 이미지 변조 분류 과정을 나타낸 도면.
도 5는 본 발명의 다른 실시예에 따른 인공지능 기반 이미지 변조 분류 과정을 나타낸 도면.
1 is a diagram showing the internal configuration of an artificial intelligence-based image modulation classification device according to the present invention.
2 is a diagram showing the internal configuration of an artificial intelligence-based image modulation classification apparatus according to another embodiment of the present invention.
3 is a view showing the internal configuration of a classification unit according to the present invention.
4 is a diagram illustrating an AI-based image modulation classification process according to the present invention.
5 is a diagram illustrating an AI-based image modulation classification process according to another embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명에 따른 실시예를 상세하게 설명한다. 본 발명의 구성 및 그에 따른 작용 효과는 이하의 상세한 설명을 통해 명확하게 이해될 것이다.Hereinafter, an embodiment according to the present invention will be described in detail with reference to the accompanying drawings. The configuration of the present invention and the effects thereof will be clearly understood through the following detailed description.

도 1은 본 발명에 따른 인공지능 기반 이미지 변조 분류 장치의 내부 구성을 나타낸 것이다. 1 shows the internal configuration of an artificial intelligence-based image modulation classification apparatus according to the present invention.

도 1을 참조하면, 인공지능 기반 이미지 비교 장치는 패턴 데이터 생성부(10), 이미지 비교부(20), 분류부(30) 등을 포함한다. Referring to FIG. 1 , the artificial intelligence-based image comparison apparatus includes a pattern data generation unit 10 , an image comparison unit 20 , a classification unit 30 , and the like.

패턴 데이터 생성부(10)는 이미지 편집 과정에서 발생하는 로그기록 데이터를 입력받아 패턴 데이터를 생성한다. 로그기록 데이터는 이미지 편집 과정 중에 발생하는 마우스의 클릭, 드래그, 속도나 키보드 입력값을 말한다. The pattern data generating unit 10 receives log record data generated in the image editing process and generates pattern data. Log record data refers to mouse clicks, drags, speeds, or keyboard input values that occur during the image editing process.

이미지 비교부(20)는 원본 이미지와 편집 이미지를 분석하여 이미지 비교결과 데이터를 출력한다. 편집 이미지는 디자이너가 원본 이미지의 디자인을 편집한 후 다른 파일 형태로 변환하여 얻게 된다. The image comparison unit 20 analyzes the original image and the edited image and outputs image comparison result data. The edited image is obtained by the designer editing the design of the original image and converting it into another file format.

본 발명의 실시예에서 원본 이미지는 일러스트레이터(Adobe Illustrator)에서 작업한 AI 파일이며, 편집 이미지는 프린터가 인식할 수 있는 TIF 파일이다. In an embodiment of the present invention, the original image is an AI file worked in Adobe Illustrator, and the edited image is a TIF file that can be recognized by the printer.

분류부(30)는 딥 러닝(deep-learning) 기반으로 학습된 모델에 따라 패턴 데이터와 이미지 비교결과 데이터를 입력받아 원본 이미지의 변조 종류를 분류한다. The classification unit 30 receives pattern data and image comparison result data according to a model learned based on deep-learning and classifies the modulation type of the original image.

원본 이미지의 변조는 인위적 변조와 비정상적 변조로 구분된다. 분류부(30)는 원본 이미지의 변조가 인위적 변조인지 비정상적 변조인지에 대해 확률 값으로 출력한다. The modulation of the original image is divided into artificial modulation and abnormal modulation. The classification unit 30 outputs a probability value as to whether the modulation of the original image is artificial modulation or abnormal modulation.

분류부(30)에 딥 러닝 모델이 적용되기 때문에, 학습 데이터로서 패턴 데이터, 이미지 비교결과 데이터 및 디자이너의 실제 이미지 비교결과(인위적 변조, 비정상적 변조)를 준비하여 딥 러닝 기반으로 분류부(30)를 사전 학습시킨다. Since the deep learning model is applied to the classification unit 30, the classification unit 30 based on deep learning prepares pattern data, image comparison result data, and designer's actual image comparison result (artificial modulation, abnormal modulation) as training data. is pre-learned.

도 2는 본 발명의 다른 실시예에 따른 인공지능 기반 이미지 변조 분류 장치의 내부 구성을 나타낸 것이다. 2 shows the internal configuration of an artificial intelligence-based image modulation classification apparatus according to another embodiment of the present invention.

도 2를 참조하면, 다른 실시예에 따른 인공지능 기반 이미지 비교장치는 패턴 데이터 생성부(10), 이미지 비교부(20), 분류부(30'), 초점 데이터 생성부(40) 등을 포함한다. Referring to FIG. 2 , an artificial intelligence-based image comparison device according to another embodiment includes a pattern data generator 10 , an image comparison part 20 , a classification part 30 ′, a focus data generator 40 , and the like. do.

도 2에 도시된 이미지 비교장치의 구성은 도 1에 도시된 구성과 유사하나, 분류부(30')에 적용되는 딥 러닝 모델이 일부 다르고, 초점 데이터 생성부(40)를 더 포함하고 있는 것이 다르다. The configuration of the image comparison apparatus shown in FIG. 2 is similar to that shown in FIG. 1 , but the deep learning model applied to the classification unit 30 ′ is partly different, and it further includes a focus data generation unit 40 . different.

초점 데이터 생성부(40)는 작업자(디자이너) 눈이 편집 작업 화면의 어느 지점을 보고 있는지를 나타내는 초점 데이터를 생성한다. The focus data generating unit 40 generates focus data indicating which point of the editing work screen the eye of the operator (designer) is looking at.

초점 데이터를 생성하기 위해서는 작업자가 스마트 글라스(smart glass)를 착용하여 편집 작업을 수행할 수 있다. 스마트 글라스에는 머리의 움직임을 파악하는 동작인식센서, 안구의 움직임을 추적하는 아이트랙커(eye tracker) 또는 카메라가 장착되어 있어서, 초점 데이터 생성부(40)는 스마트 글라스의 각종 센서로부터 센서신호를 입력받아 초점 데이터를 생성하게 된다. In order to generate focus data, an operator may wear smart glasses to perform an editing operation. The smart glass is equipped with a motion recognition sensor that detects the movement of the head, an eye tracker or a camera that tracks the movement of the eye, so that the focus data generating unit 40 inputs sensor signals from various sensors of the smart glass. and generate focus data.

분류부(30')는 딥 러닝(deep-learning) 기반으로 학습된 모델에 따라 패턴 데이터, 초점 데이터 및 이미지 비교결과 데이터를 입력받아 원본 이미지의 변조 종류를 분류한다. The classification unit 30' receives pattern data, focus data, and image comparison result data according to a model learned based on deep-learning and classifies the modulation type of the original image.

분류부(30')도 딥 러닝 모델이 적용되기 때문에, 학습 데이터로서 패턴 데이터, 초점 데이터, 이미지 비교결과 데이터 및 디자이너의 실제 이미지 비교결과(인위적 변조, 비정상적 변조)를 준비하여 딥 러닝 기반으로 분류부(30')를 사전 학습시킨다. Since the classification unit 30' also applies a deep learning model, it prepares pattern data, focus data, image comparison result data, and designer's actual image comparison result (artificial modulation, abnormal modulation) as training data and classifies it based on deep learning The unit 30' is pre-trained.

도 3은 본 발명에 따른 분류부의 내부 구성을 나타낸 것이다.3 shows the internal configuration of a classification unit according to the present invention.

도 3을 참조하면, 분류부(30')는 크게 특징벡터 변환모듈(32)과 신경망(34)으로 구성된다. Referring to FIG. 3 , the classification unit 30 ′ is largely composed of a feature vector transformation module 32 and a neural network 34 .

도 3에서 분류부(30')에 대한 설명은 도 1에 도시된 분류부(30)에도 동일하게 적용되나, 입력 값이 일부 다르고 그에 따라 신경망(34)의 구조가 다름에 유의한다. Note that the description of the classification unit 30 ′ in FIG. 3 is equally applied to the classification unit 30 illustrated in FIG. 1 , but the input values are partly different and the structure of the neural network 34 is different accordingly.

특징벡터 변환모듈(32)은 패턴 데이터, 초점 데이터, 이미지 비교결과 데이터등을 입력받아 신경망(Deep Neural Network)(34)에 적용 가능한 특징벡터(feature vector)로 변환한다. 특징벡터는 각 정보가 정규화되어 N-차원으로 구성된 값이다. The feature vector conversion module 32 receives pattern data, focus data, image comparison result data, etc. and converts it into a feature vector applicable to a deep neural network 34 . A feature vector is a value composed of N-dimensional information in which each piece of information is normalized.

N-차원의 특징벡터는 신경망(34)의 입력층(input layer)에 입력되고 학습과정을 통해 결정된 가중치(weight) 및 바이어스(bias) 값과 활성함수(activation function)를 이용해 복수의 은닉층(hidden layer)을 거쳐 출력층(output layer)으로 출력된다. 출력층으로 출력된 값이 이미지 변조 분류 결과를 구성한다. The N-dimensional feature vector is input to the input layer of the neural network 34, and a plurality of hidden layers using weight and bias values determined through a learning process and an activation function. layer) and output to the output layer. The value output to the output layer constitutes the image modulation classification result.

본 발명에 따른 인공지능 기반 신경망(34)을 구현하기 위해, 패턴 데이터, 초점 데이터, 이미지 비교결과 데이터 등을 정규화한 값을 입력 데이터로 하고, 실제 이미지 비교결과 값(인위적 변조, 비정상적 변조)을 출력 데이터로 하는 학습 데이터(training data)를 사용하여 기계학습(machine learning)을 통해 신경망(34)을 학습시킨다. In order to implement the artificial intelligence-based neural network 34 according to the present invention, a value obtained by normalizing pattern data, focus data, image comparison result data, etc. is taken as input data, and actual image comparison result values (artificial modulation, abnormal modulation) are used as input data. The neural network 34 is trained through machine learning using training data as output data.

도 4는 본 발명에 따른 인공지능 기반 이미지 변조 분류 과정을 나타낸 것이다. 4 shows an AI-based image modulation classification process according to the present invention.

도 4를 참조하면, 각 단계는 인공지능 기반 이미지 변조 분류 장치에서 수행되며, 크게 패턴 데이터 생성 단계(S10), 이미지 비교 단계(S20), 이미지 변조 분류 단계(S30)로 구성된다. Referring to FIG. 4 , each step is performed in an artificial intelligence-based image modulation classification device, and is largely composed of a pattern data generation step (S10), an image comparison step (S20), and an image modulation classification step (S30).

패턴 데이터 생성 단계(S10)는 이미지 편집 과정에서 발생하는 로그기록 데이터를 입력받아 패턴 데이터를 생성하는 과정이다. 즉, 디자이너가 이미지를 가공, 처리, 변환하는 과정에서 발생하는 각종 로그기록을 패턴화하는 과정이다. The pattern data generation step S10 is a process of generating pattern data by receiving log record data generated in the image editing process. In other words, it is a process of patterning various log records that occur in the process of the designer processing, processing, and converting images.

이미지 비교 단계(S20)는 원본 이미지와 편집 이미지를 분석하여 이미지 비교결과 데이터를 출력하는 과정이다. 이미지 비교 단계는 종래의 이미지 비교 기술을 이용하여 이미지의 변경을 수치적으로 계산한다. The image comparison step (S20) is a process of outputting image comparison result data by analyzing the original image and the edited image. The image comparison step numerically calculates the change in the image using conventional image comparison techniques.

이미지 변조 분류 단계(S30)는 딥 러닝(deep-learning) 기반으로 학습된 모델에 따라 패턴 데이터와 이미지 비교결과 데이터를 입력받아 이미지의 변조 종류를 분류하는 과정이다. The image modulation classification step S30 is a process of classifying the modulation type of an image by receiving pattern data and image comparison result data according to a model learned based on deep-learning.

이미지 변조 분류 단계는 패턴 데이터와 이미지 비교결과 데이터를 입력받아 특징 벡터를 출력하고, 특징 벡터를 입력 층을 통해 입력 받아 인공신경망을 통해 분석하여 이미지 변조의 종류에 대한 확률 값을 출력하게 된다. The image modulation classification step receives pattern data and image comparison result data, outputs a feature vector, receives the feature vector through an input layer, analyzes it through an artificial neural network, and outputs a probability value for the type of image modulation.

이미지 변조 종류에 대한 확률 값을 통해 이미지의 변조가 인위적인 변조인지 아니면 비정상적인 변조인지를 확인할 수 있다. Through the probability value for the type of image modulation, it is possible to determine whether the modulation of the image is artificial or abnormal.

도 5는 본 발명의 다른 실시예에 따른 인공지능 기반 이미지 변조 분류 과정을 나타낸 것이다. 5 shows an AI-based image modulation classification process according to another embodiment of the present invention.

도 5를 참조하면, 도 4의 과정과 동일하나 초점 데이터 생성 단계(S12)가 추가되어 있음을 알 수 있다. Referring to FIG. 5 , it can be seen that the process of FIG. 4 is the same, but the focus data generation step S12 is added.

초점 데이터 생성 단계(S12)는 작업자가 착용한 스마트 글라스에 구비된 동작인식센서, 아이트랙커(eye tracker) 또는 카메라로부터 센서신호를 입력받아 초점 데이터를 생성하는 과정이다. The focus data generation step (S12) is a process of generating focus data by receiving a sensor signal from a motion recognition sensor, an eye tracker, or a camera provided in the smart glasses worn by the operator.

이에 따라 이미지 변조 분류 단계(S30)는 딥 러닝(deep-learning) 기반으로 학습된 모델에 따라 패턴 데이터, 초점 데이터 및 이미지 비교결과 데이터를 입력받아 이미지의 변조 종류를 분류하게 된다. Accordingly, the image modulation classification step S30 receives pattern data, focus data, and image comparison result data according to a model learned based on deep-learning, and classifies the modulation type of the image.

또한, 이미지 변조 분류 단계(S30)는 패턴 데이터 및 이미지 비교결과 데이터 외에 초점 데이터를 입력받아 더 많은 특징 벡터를 출력하고, 이 특징 벡터를 입력 층을 통해 입력 받아 인공신경망을 통해 분석하여 이미지 변조의 종류에 대한 확률 값을 출력하게 된다. 이와 같이, 입력 벡터로서 초점 데이터가 추가됨으로써 더욱 정확한 이미지 변조 분류 결과를 출력할 수 있게 된다. In addition, the image modulation classification step (S30) receives focus data in addition to the pattern data and image comparison result data to output more feature vectors, and receives this feature vector through an input layer and analyzes it through an artificial neural network to determine image modulation. It outputs the probability value for the type. As described above, by adding focus data as an input vector, it is possible to output a more accurate image modulation classification result.

이상의 설명은 본 발명을 예시적으로 설명한 것에 불과하며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술적 사상에서 벗어나지 않는 범위에서 다양한 변형이 가능할 것이다. The above description is merely illustrative of the present invention, and various modifications may be made by those of ordinary skill in the art to which the present invention pertains without departing from the technical spirit of the present invention.

따라서 본 발명의 명세서에 개시된 실시예들은 본 발명을 한정하는 것이 아니다. 본 발명의 범위는 아래의 특허청구범위에 의해 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술도 본 발명의 범위에 포함되는 것으로 해석해야 할 것이다. Accordingly, the embodiments disclosed in the specification of the present invention are not intended to limit the present invention. The scope of the present invention should be construed by the following claims, and all technologies within the scope equivalent thereto should be construed as being included in the scope of the present invention.

10: 패턴 데이터 생성부 20: 이미지 비교부
30, 30': 분류부 32: 특징벡터 변환모듈
34: 신경망 40: 초점 데이터 생성부
10: pattern data generation unit 20: image comparison unit
30, 30': classification unit 32: feature vector conversion module
34: neural network 40: focus data generator

Claims (14)

이미지 편집 과정에서 발생하는 로그기록 데이터를 입력받아 패턴 데이터를 생성하는 패턴 데이터 생성부와,
원본 이미지와 편집 이미지를 분석하여 이미지 비교결과 데이터를 출력하는 이미지 비교부와,
학습 데이터로서 패턴 데이터, 이미지 비교결과 데이터 및 디자이너의 실제 이미지 비교결과를 이용해 지도학습의 딥 러닝(deep-learning) 기반으로 학습된 모델에 따라 상기 패턴 데이터와 이미지 비교결과 데이터를 입력받아 편집 작업의 결과에 의한 인위적 변조인지 편집 작업 이외의 결과에 의한 비정상적인 변조인지를 분류하는 분류부를 포함하는 인공지능 기반 이미지 변조 분류 장치.
a pattern data generating unit that receives log record data generated in the image editing process and generates pattern data;
An image comparison unit that analyzes the original image and the edited image and outputs image comparison result data;
Using the pattern data, image comparison result data, and designer's actual image comparison result as training data, the pattern data and image comparison result data are input according to the model learned based on deep-learning of supervised learning, and the editing operation is performed. An artificial intelligence-based image modulation classification device including a classification unit for classifying whether artificial modulation is caused by a result or abnormal modulation by a result other than an editing operation.
제1항에 있어서,
상기 분류부는 상기 패턴 데이터와 이미지 비교결과 데이터를 입력받아 특징 벡터를 출력하는 특징벡터 변환 모듈과,
상기 특징 벡터를 입력 층을 통해 입력 받아 복수의 은닉층을 거쳐 출력층을 통해 이미지 변조의 종류 값을 출력하는 신경망을 포함하는 것을 특징으로 하는 인공지능 기반 이미지 변조 분류 장치.
According to claim 1,
The classification unit includes a feature vector conversion module that receives the pattern data and image comparison result data and outputs a feature vector;
and a neural network that receives the feature vector through an input layer and outputs a value of the type of image modulation through an output layer through a plurality of hidden layers.
제1항에 있어서,
상기 로그기록 데이터는 마우스의 클릭, 드래그, 속도나 키보드 입력값을 포함하는 것을 특징으로 하는 인공지능 기반 이미지 변조 분류 장치.
According to claim 1,
The log record data is an artificial intelligence-based image modulation classification device, characterized in that it includes a mouse click, drag, speed, or keyboard input value.
삭제delete 이미지 편집 과정에서 발생하는 로그기록 데이터를 입력받아 패턴 데이터를 생성하는 패턴 데이터 생성부와,
원본 이미지와 편집 이미지를 분석하여 이미지 비교결과 데이터를 출력하는 이미지 비교부와,
작업자의 눈이 편집 작업 화면의 어느 지점을 보고 있는지를 나타내는 초점 데이터를 생성하는 초점 데이터 생성부와,
학습 데이터로서 패턴 데이터, 이미지 비교결과 데이터, 초점 데이터 및 디자이너의 실제 이미지 비교결과를 이용해 지도학습의 딥 러닝(deep-learning) 기반으로 학습된 모델에 따라 패턴 데이터, 초점 데이터 및 이미지 비교결과 데이터를 입력받아 편집 작업의 결과에 의한 인위적 변조인지 편집 작업 이외의 결과에 의한 비정상적인 변조인지를 분류하는 분류부를 포함하는 인공지능 기반 이미지 변조 분류 장치.
a pattern data generating unit that receives log record data generated in the image editing process and generates pattern data;
An image comparison unit that analyzes the original image and the edited image and outputs image comparison result data;
a focus data generating unit that generates focus data indicating which point on the editing screen the operator's eyes are looking at;
Pattern data, focus data, and image comparison result data according to a model learned based on deep-learning of supervised learning using pattern data, image comparison result data, focus data, and designer's actual image comparison result as training data. An artificial intelligence-based image modulation classification device comprising a classification unit that receives input and classifies whether it is artificial modulation due to the result of editing work or abnormal modulation due to a result other than editing work
제5항에 있어서,
상기 분류부는 상기 패턴 데이터, 초점 데이터 및 이미지 비교결과 데이터를 입력받아 특징 벡터를 출력하는 특징벡터 변환 모듈과,
상기 특징 벡터를 입력 층을 통해 입력 받아 복수의 은닉층을 거쳐 출력층을 통해 이미지 변조의 종류 값을 출력하는 신경망을 포함하는 것을 특징으로 하는 인공지능 기반 이미지 변조 분류 장치.
6. The method of claim 5,
The classification unit includes a feature vector conversion module that receives the pattern data, focus data, and image comparison result data and outputs a feature vector;
and a neural network that receives the feature vector through an input layer and outputs a value of the type of image modulation through an output layer through a plurality of hidden layers.
제5항에 있어서,
상기 초점 데이터 생성부는 작업자가 착용한 스마트 글라스에 구비된 동작인식센서, 아이트랙커(eye tracker) 또는 카메라로부터 센서신호를 입력받아 초점 데이터를 생성하는 것을 특징으로 하는 인공지능 기반 이미지 변조 분류 장치.
6. The method of claim 5,
The focus data generator receives a sensor signal from a motion recognition sensor, an eye tracker, or a camera provided in the smart glasses worn by the worker, and generates focus data.
인공지능 기반 이미지 변조 분류 장치에서 이미지의 변조 종류를 분류하는 방법에 있어서,
이미지 편집 과정에서 발생하는 로그기록 데이터를 입력받아 패턴 데이터를 생성하는 패턴 데이터 생성 단계와,
원본 이미지와 편집 이미지를 분석하여 이미지 비교결과 데이터를 출력하는 이미지 비교 단계와,
학습 데이터로서 패턴 데이터, 이미지 비교결과 데이터 및 디자이너의 실제 이미지 비교결과를 이용해 지도학습의 딥 러닝(deep-learning) 기반으로 학습된 모델에 따라 상기 패턴 데이터와 이미지 비교결과 데이터를 입력받아 편집 작업의 결과에 의한 인위적 변조인지 편집 작업 이외의 결과에 의한 비정상적인 변조인지를 분류하는 이미지 변조 분류 단계를 포함하는 인공지능 기반 이미지 변조 분류 방법.
A method of classifying an image modulation type in an artificial intelligence-based image modulation classification apparatus, the method comprising:
A pattern data generation step of generating pattern data by receiving log record data generated in the image editing process;
An image comparison step of analyzing the original image and the edited image and outputting image comparison result data;
Using the pattern data, image comparison result data, and designer's actual image comparison result as training data, the pattern data and image comparison result data are input according to the model learned based on deep-learning of supervised learning, and the editing operation is performed. An artificial intelligence-based image modulation classification method comprising an image modulation classification step of classifying whether it is artificial modulation based on the result or abnormal modulation due to a result other than editing.
제8항에 있어서,
상기 이미지 변조 분류 단계는 상기 패턴 데이터와 이미지 비교결과 데이터를 입력받아 특징 벡터를 출력하는 과정과,
상기 특징 벡터를 입력 층을 통해 입력 받아 인공신경망을 통해 분석하여 이미지 변조의 종류에 대한 확률 값을 출력하는 과정을 포함하는 것을 특징으로 하는 인공지능 기반 이미지 변조 분류 방법.
9. The method of claim 8,
The image modulation and classification step includes the process of receiving the pattern data and image comparison result data and outputting a feature vector;
and outputting a probability value for a type of image modulation by receiving the feature vector as an input through an input layer and analyzing it through an artificial neural network.
제8항에 있어서,
상기 로그기록 데이터는 마우스의 클릭, 드래그, 속도나 키보드 입력값을 포함하는 것을 특징으로 하는 인공지능 기반 이미지 변조 분류 방법.
9. The method of claim 8,
The log record data is an artificial intelligence-based image modulation classification method, characterized in that it includes a mouse click, drag, speed, or keyboard input value.
삭제delete 인공지능 기반 이미지 변조 분류 장치에서 이미지의 변조 종류를 분류하는 방법에 있어서,
이미지 편집 과정에서 발생하는 로그기록 데이터를 입력받아 패턴 데이터를 생성하는 패턴 데이터 생성 단계와,
원본 이미지와 편집 이미지를 분석하여 이미지 비교결과 데이터를 출력하는 이미지 비교 단계와,
작업자의 눈이 편집 작업 화면의 어느 지점을 보고 있는지를 나타내는 초점 데이터를 생성하는 초점 데이터 생성 단계와,
학습 데이터로서 패턴 데이터, 이미지 비교결과 데이터, 초점 데이터 및 디자이너의 실제 이미지 비교결과를 이용해 지도학습의 딥 러닝(deep-learning) 기반으로 학습된 모델에 따라 패턴 데이터, 초점 데이터 및 이미지 비교결과 데이터를 입력받아 편집 작업의 결과에 의한 인위적 변조인지 편집 작업 이외의 결과에 의한 비정상적인 변조인지를 분류하는 이미지 변조 분류 단계를 포함하는 인공지능 기반 이미지 변조 분류 방법.
A method of classifying an image modulation type in an artificial intelligence-based image modulation classification apparatus, the method comprising:
A pattern data generation step of generating pattern data by receiving log record data generated in the image editing process;
An image comparison step of analyzing the original image and the edited image and outputting image comparison result data;
a focus data generation step of generating focus data indicating at which point on the editing screen the operator's eyes are looking;
Pattern data, focus data, and image comparison result data according to a model learned based on deep-learning of supervised learning using pattern data, image comparison result data, focus data, and designer's actual image comparison result as training data. An artificial intelligence-based image modulation classification method comprising an image modulation classification step of receiving input and classifying whether it is artificial modulation due to the result of the editing operation or abnormal modulation due to a result other than the editing operation.
제12항에 있어서,
상기 이미지 변조 분류 단계는 상기 패턴 데이터, 초점 데이터 및 이미지 비교결과 데이터를 입력받아 특징 벡터를 출력하는 특징 벡터를 출력하는 과정과,
상기 특징 벡터를 입력 층을 통해 입력 받아 인공신경망을 통해 분석하여 이미지 변조의 종류에 대한 확률 값을 출력하는 과정을 포함하는 것을 특징으로 하는 인공지능 기반 이미지 변조 분류 방법.
13. The method of claim 12,
The image modulation and classification step includes the process of receiving the pattern data, focus data, and image comparison result data and outputting a feature vector for outputting a feature vector;
and outputting a probability value for a type of image modulation by receiving the feature vector as an input through an input layer and analyzing it through an artificial neural network.
제12항에 있어서,
상기 초점 데이터 생성 단계는 작업자가 착용한 스마트 글라스에 구비된 동작인식센서, 아이트랙커(eye tracker) 또는 카메라로부터 센서신호를 입력받아 초점 데이터를 생성하는 것을 특징으로 하는 인공지능 기반 이미지 변조 분류 방법.
13. The method of claim 12,
The focus data generation step is an artificial intelligence-based image modulation classification method, characterized in that the focus data is generated by receiving a sensor signal from a motion recognition sensor, an eye tracker, or a camera provided in the smart glasses worn by the worker.
KR1020190128197A 2019-10-16 2019-10-16 Apparatus and method for classifying image change type based on artificial intelligence technology KR102260335B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190128197A KR102260335B1 (en) 2019-10-16 2019-10-16 Apparatus and method for classifying image change type based on artificial intelligence technology

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190128197A KR102260335B1 (en) 2019-10-16 2019-10-16 Apparatus and method for classifying image change type based on artificial intelligence technology

Publications (2)

Publication Number Publication Date
KR20210045011A KR20210045011A (en) 2021-04-26
KR102260335B1 true KR102260335B1 (en) 2021-06-03

Family

ID=75733523

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190128197A KR102260335B1 (en) 2019-10-16 2019-10-16 Apparatus and method for classifying image change type based on artificial intelligence technology

Country Status (1)

Country Link
KR (1) KR102260335B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102662335B1 (en) * 2021-10-27 2024-05-03 경북대학교 산학협력단 System of detecting software abnormal operation using Comparative Neural Network Learning and method thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018028727A (en) * 2016-08-15 2018-02-22 株式会社日立製作所 Video file management system and video file management method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1722331B1 (en) 2004-03-03 2010-12-01 NEC Corporation Image similarity calculation system, image search system, image similarity calculation method, and image similarity calculation program
KR101541158B1 (en) * 2013-11-18 2015-08-04 한국전자통신연구원 Homepage modulation detection apparatus and method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018028727A (en) * 2016-08-15 2018-02-22 株式会社日立製作所 Video file management system and video file management method

Also Published As

Publication number Publication date
KR20210045011A (en) 2021-04-26

Similar Documents

Publication Publication Date Title
US20210089895A1 (en) Device and method for generating a counterfactual data sample for a neural network
US8306327B2 (en) Adaptive partial character recognition
KR102036963B1 (en) Method and system for robust face dectection in wild environment based on cnn
KR20220150868A (en) Method of motion vector and feature vector based fake face detection and apparatus for the same
KR100608595B1 (en) Face identifying method and apparatus
Deng et al. Amae: Adaptive motion-agnostic encoder for event-based object classification
Patil et al. Indian sign language recognition using convolutional neural network
Jacoby et al. Context-sensitive human activity classification in collaborative learning environments
KR102260335B1 (en) Apparatus and method for classifying image change type based on artificial intelligence technology
US20210390419A1 (en) Device and Method for Training and Testing a Classifier
Hamda et al. Hand gesture recognition using kinect's geometric and hog features
Patel et al. Deep leaning based static Indian-Gujarati Sign language gesture recognition
Foong et al. Hand gesture recognition: sign to voice system (S2V)
Mihalache et al. Hand pose estimation using HOG features from RGB-D data
Yan et al. Iris segmentation using watershed and region merging
Pawar et al. Sign Language Recognition Using Keypoints Through DTW
Harini et al. A novel static and dynamic hand gesture recognition using self organizing map with deep convolutional neural network
Badi et al. Feature extraction technique for static hand gesture recognition
KR20190008036A (en) System and method for generating facial expression of android robot
Kaur et al. Performance Analysis of Sign Language Recognition System Using Hybrid Feature Descriptor
Gilorkar et al. A review on feature extraction for Indian and American sign language
Suthar et al. A literature survey on facial expression recognition techniques using appearance based features
Mohmmad et al. Extended informative local binary patterns (eilbp): A model for image feature extraction
Mishra et al. Face detection for video summary using enhancement based fusion strategy
Bergboer et al. A context-based model of attention

Legal Events

Date Code Title Description
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)