KR100907760B1 - 감성기반 직물 인덱싱 자동화 시스템 - Google Patents

감성기반 직물 인덱싱 자동화 시스템 Download PDF

Info

Publication number
KR100907760B1
KR100907760B1 KR1020070057380A KR20070057380A KR100907760B1 KR 100907760 B1 KR100907760 B1 KR 100907760B1 KR 1020070057380 A KR1020070057380 A KR 1020070057380A KR 20070057380 A KR20070057380 A KR 20070057380A KR 100907760 B1 KR100907760 B1 KR 100907760B1
Authority
KR
South Korea
Prior art keywords
image
fabric
emotion
indexing
pattern
Prior art date
Application number
KR1020070057380A
Other languages
English (en)
Other versions
KR20080099099A (ko
Inventor
김수정
김지인
김은이
정갑주
Original Assignee
건국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 건국대학교 산학협력단 filed Critical 건국대학교 산학협력단
Publication of KR20080099099A publication Critical patent/KR20080099099A/ko
Application granted granted Critical
Publication of KR100907760B1 publication Critical patent/KR100907760B1/ko

Links

Images

Classifications

    • DTEXTILES; PAPER
    • D03WEAVING
    • D03DWOVEN FABRICS; METHODS OF WEAVING; LOOMS
    • D03D25/00Woven fabrics not otherwise provided for

Landscapes

  • Engineering & Computer Science (AREA)
  • Textile Engineering (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 실제 직물영상에서 시각적 요소를 추출하고 그러한 시각적 요소로부터 감성으로 인덱싱 하는 일련의 과정을 위한 자동화된 시스템을 제공한다. 감성기반 인터페이스를 필요로 하는 패션, 섬유디자인, 상품 디자인 등과 같은 분야는 사용자의 요구와 성향이 유행이나, 사회적 영향에 따라 다양하고 빠르게 변화하나, 종래의 감성과 시각적 요소를 위한 온토로지 구축만으로는 이러한 빠른 변화에 발 빠르게 적용될 수 없었던 종래 문제점을 해결하기 위해 시각적 요소로부터 감성을 바로 추출할 수 있는 자동화된 시스템을 제공함으로써 빠른 변화에 능동적으로 대응할 수 있도록 한다. 또한, 각 시각적 요소에 따른 다단계로 평가하는 시스템을 제안함으로써, 특정 요소에 따라 영향 받는 감성이 다르다는 사실을 바탕으로 직물 영상에 대한 평가시스템의 성능을 더 높일 수 있도록 한다.
직물, 텍스처, 패턴, 감성, 인덱싱, 온톨로지

Description

감성기반 직물 인덱싱 자동화 시스템{SYSTEM FOR AUTOMATICALLY INDEXING TEXTILE BASED ON EMOTION}
도 1은 본 발명의 실시 예에 따른 감성기반 인덱싱 시스템의 개념도,
도 2는 본 발명의 실시 예에 따른 직물영상로부터 패턴정보를 추출하는 개념도,
도 3은 본 발명의 실시 예에 따른 직물영상에서 텍스처 성분 분포와 그에 따른 감성의 상관도,
도 4는 본 발명의 실시 예에 따른 직물영상에서 칼라 성분 분포와 그에 따른 감성의 상관도,
도 5는 본 발명의 실시 예에 따른 직물영상의 칼라/텍스처 성분을 이용한 퍼지기반 평가 개념도,
도 6은 본 발명의 실시 예에 따른 직물영상의 패턴 성분을 이용한 신경망기반 평가 개념도,
도 7은 본 발명의 실시 예에 따른 시각적 요소에 따른 감성예측 성능 차이를 도시한 그래프 예시도,
도 8은 본 발명의 실시 예에 따른 감성기반 이미지 인덱싱을 통한 가상 패션 시뮬레이션 예시도,
도 9는 본 발명의 실시 예에 따른 감성기반 인덱싱 시스템과 응용 어플리케이션 개념도.
도 10은 본 발명의 실시 예에 따른 감성 기반 인덱싱 시스템과 응용 어플리케이션 확장 개념도.
본 발명은 감성기반 직물 인덱싱(textile indexing) 시스템에 관한 것으로, 특히 칼라(color), 텍스처(texture), 패턴(pattern)과 같은 시각적 요소를 자동으로 추출하고 그와 관련된 특정 감성에 따라 직물 영상을 효율적으로 인덱싱 할 수 있는 자동화된 감성기반(emotion-based) 직물 인덱싱 시스템에 관한 것이다.
사회가 개인화하고 사용자의 요구가 다양해짐에 따라, 사용자의 감성을 기반으로 하여 서비스를 제공하는 많은 연구와 응용 어플리케이션을 개발되고 있다. 그 중, 시각적인 정보에 대한 인간의 감성은 디자인, 패션, 상품개발과 같은 여러 분야에서 그 중요성이 부각되어 다각적인 측면으로 많은 연구가 진행되고 있으나, 그러한 연구들이 아직 괄목할 만한 성과를 내지 못하고 있다. 더욱이, 시각 정보로부터 유용한 요소를 추출하고, 감성을 예측하는 자동화된 시스템이 매우 미흡한 실정이다.
감성 표현과 시각정보는 기존 연구들에서 다양하게 정의하고 사용하였는데, 특히, 직물이나 패션분야에서 Kobayashi는 패션에서 사용되는 어휘를 중심으로 warm-cool, soft-hard, clear-grayish를 기본 축으로 하여 분포된 감성어휘 모형을 제시하였다. 반면, Soen은 서로 반대되는 개념을 가진 13개 쌍의 감성표현을 개발하였으며, 특히 Soen이 사용한 감성표현은 유사한 다른 연구에서 많이 사용되고, 특정 분야가 아닌 범용적인 분야에서 사용되어지고 있다. 따라서 근래 들어 Soen에 의해 제시된 감성 표현이 많이 사용되고 있으며, 이러한 감성을 기반으로 칼라, 텍스처, 패턴으로 대표되는 시각 특징과의 상관관계를 조사하고, 그를 기반으로 다양한 인식 시스템이 개발되어지고 있다.
그러나, 기존의 연구들은 영상데이터로부터 시각적 요소를 추출하고 감성을 예측하는 일련의 과정을 위한 자동화된 시스템이 미흡하였다. 그러한 가운데, 칼라와 텍스처를 가지고 감성 값과의 관계를 선형적인 회귀 방정식(regression equation)으로 표현하는 방법에 제안되었으나, 실제 시각 특징과 감성과의 관계는 비선형적이기 때문에 일반적으로 사용되기에는 부적합하였다.
이러한 문제를 해결하기 위해 종래에는 시각정보로부터 감성의 변환을 위해 퍼지룰(fuzzy rule)과 신경망을 이용한 시스템이 개발되었으며, 이 시스템은 비교적 높은 인식률을 보였으나, 실험에서 사용된 영상 데이터의 양이 매우 적으므로 객관적인 사례로 정의하기에 부족한 문제점이 있었다. 또한 기존 심리학 분야에서 언급되었던 것처럼, 특정 감성은 특정 요소와 관련되어 있으나, 이러한 연구들은 이러한 사실을 간과하였기 때문에, 영상의 데이터 셋에 따라 일괄적인 결과를 산출하지 못하는 문제점이 있었다.
따라서, 본 발명의 목적은 직물을 인덱싱함에 있어서 칼라, 텍스처, 패턴과 같은 시각적 요소를 자동으로 추출하고 그와 관련된 특정 감성에 따라 직물 영상을 효율적으로 인덱싱 할 수 있으며, 또한 감성을 기반으로 직물 영상을 인덱싱 할 뿐만 아니라, 더 나아가 직물 디자인, 패션 디자인, 상품 디자인과 같이 상업적인 분야에서도 사용될 수 있도록 하는 감성기반 직물 인덱싱 자동화 시스템을 제공함에 있다.
상술한 목적을 달성하기 위한 본 발명은 직물의 시각정보로부터 유용한 요소를 추출하고, 그와 관련된 특정 감성에 따라 직물 영상을 효율적으로 인덱싱할 수 있는 감성 기반 직물 인덱싱 자동화 시스템으로서, 인덱싱 하고자 하는 직물 영상의 디지털 이미지로부터 퍼지 룰에 기반하여 해당 직물영상의 칼라와 텍스처 성분을 추출하는 영상특징 추출부와, 상기 디지털 이미지로부터 신경망에 기반하여 직물영상의 특징적 패턴 정보를 추출하는 영상패턴 추출부와, 상기 영상특징 및 패턴 추출부로부터 추출된 직물 영상의 칼라와 텍스처 및 패턴정보를 이용하여 해당 직물 영상에 대한 감성을 예측하는 감성 예측부를 포함하는 것을 특징으로 한다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예의 동작을 상세하게 설명한다.
도 1은 본 발명의 실시 예에 따른 직물영상의 칼라, 텍스처 및 패턴 정보를 추출하는 개념을 도시한 도면이다.
위 도 1을 참조하면, 본 발명의 감성기반 직물 인덱싱 자동화 시스템은 크게 이미지로부터 시각적 요소를 추출하는 영상특징 추출 부분과 그러한 영상의 특징으로부터 감성을 예측하는 평가시스템으로 크게 나뉘게 된다. 즉, 도 1에서 보는 바와 같이 직물영상(100)의 칼라(color)와 텍스처(texture) 요소는 퍼지기반 시스템(fuzzy-based evaluation system)(102)에 의해 처리되고, 반면 패턴(pattern) 요소는 신경망 기반 평가 시스템(neural net-based evaluation system)(104)에 의해 평가된다.
먼저 영상 특징 추출에 관해 살펴보면, 직물영상과 그에 상응하는 감성요소에 대한 정보를 수집하기 위해 본 발명에서는 사용자가 160개의 직물 영상에 대해 느껴지는 감성을 평가하는 설문조사를 실시하였다. 직물영상은 동대문 텍스타일 쇼핑몰에서 임의적으로 추출하였으며, 총 70명이 이 설문조사에 참여하였다. 그러한 데이터에서 직물의 시각적 요소와 감성과의 관계를 분석하였다.
이전 연구에서 우리는 직물 영상의 감성 요소를 인식하기 위해 칼라(color)와 공간적 특징만을 사용하였다. 그러나, 이러한 요소는 몇몇 제한된 감성에 대해서만 인식할 수 있는 제한점을 가지고 있었다. 그래서, (gaudy, plain)과 다른 같은 감성에 대해서 직물을 분류하기 위해 본 발명에서는 패턴 요소를 추가하였고, 그러한 패턴의 종류를 인식하기 위해 신경망 기반의 영상 특징 추출 시스템을 개발하였다.
즉, 본 발명의 영상 특징 추출 시스템은 칼라와 텍스처를 추출하는 부분과 패턴을 추출하는 부분으로 나누어져 있다. 우선적으로, HSI(Hue Saturation Intensity) 칼라모델이 RGB에 비해 인간 지각에 가깝기 때문에, 디지털 이미지의 RGB 값을 HSI 값으로 변환한다.
직물 영상의 공간 특징을 추출하기 위해 아래의 [수학식1]에서 정의된 GLRLM(Gray Level Run Length Matrix)을 이용하여 각 성분의 공간적 밀도를 스칼라값 C로 정의하며, 텍스처값 C는 [수학식2]에서 정의된 SRE(Short Run Emphasis)을 이용하여 계산된다.
Figure 112007042511598-pat00001
Figure 112007042511598-pat00002
위 [수학식 1] 및 [수학식 2]에서 MN은 MN 매트리스를 나타내고 I(i,j)는 해당 픽셀의 값이다. 그리고, τ(m,n)은 각도(0, 45, 90, 135)의 픽셀의 run-length 값이고, CARD는 각 각도의 집합을 의미한다.
직물 영상의 패턴 요소를 추출하기 위해 본 발명에서는 기존의 여러 인덱싱 시스템에서 많이 사용하는 에지(edge) 요소를 사용하였다. 에지 정보는 영상자체의 조명에 영향을 받지 않기 때문에 패턴 자체 정보를 나타내는데 유용하다. 패턴 추출 컴포넌트는 도 2에서 보여지는 바와 같이 운용된다. 우선, sobel 알고리즘을 이용하여 직물영상(200)의 에지(edge) 이미지(202)로 변환한 후, 작은 이미지(sub image)(204)로 분할한다. 그 다음 각 작은 이미지(204)에서 에지 정보가 많은 이미지를 선택하여 직물영상의 패턴 정보를 평가하기 위해 신경망의 입력 값(206)으로 사용한다.
기존 연구에서는, 칼라와 텍스처가 (strong, weak), (sober, gay), (light, dark), (dismal, cheerful), (warm, cold), and (soft, hard)와 같은 몇몇 감성과 높은 상관관계가 있다는 사실을 발견하고 그에 따라 퍼지 규칙을 정의하였으나, 본 발명에서는 더 많은 감성을 예측하고 다른 시각적 요소와 감성과의 관계를 연구하기 위해 기존의 작업에서 신경망 기반 평가시스템을 추가하였다.
다음으로 퍼지 기반 평가 시스템의 동작을 살펴보면, 퍼지기반 시스템은 직물 영상을 칼라와 텍스처에 따라 6쌍의 감성에 의해 분류하기 위해 개발되었다. 도 3은 텍스처 요소와 그에 상응하는 감성을 보여준다. 위 도 3에서 보여지는 것과 같이 각 감성을 내포하는 직물영상은 텍스처값(texture value)에 의해 구분된다. 그에 반해 도 4는 직물영상에 포함된 6개의 감성요소를 예측하기 위해 칼라요소가 사용될 수 있음을 보여준다.
위 도 4를 참조하면, 예를 들어 'sober' 감성을 내포하는 직물 영상은 매우 낮은 채도 값을 가지고, 반면 'gay' 감성을 표현하는 직물은 매우 낮은 색조 값을 갖는다. 이러한 데이터특징에 따라 우리는 퍼지기반 예측 시스템을 개발하였다.
Figure 112007042511598-pat00003
Figure 112007042511598-pat00004
즉, 본 발명에서는 데이터 영역을 5구간으로 나누고, 위 [수학식3]과 같은 symmetric triangular membership function을 사용하여 총 14개의 퍼지 규칙을 생성하였다. 그 중, 11개는 영상의 칼라의 분포에 따라 정의되고, 3개는 텍스처에 의해 정의된다. 기존의 연구 결과를 기반으로, 본 발명에서는 도 5에서와 같이 우선 텍스처 요소에 관한 규칙을 적용시켜 1차로 감성을 예측한 후(500), 칼라 요소에 관련된 규칙을 적용시켜 2차로 감성을 예측하여(502) 최종적인 직물영상의 감성을 예측하게 된다.
다음으로 신경망 기반 평가 시스템에 대해 살펴보면, 기존의 이미지 인덱싱 연구에서 영상의 패턴은 이미지를 인덱싱 하는데 효과적인 요소로 작용하였다. 그러므로, 본 발명에서는 직물 영상 패턴과 감성이 높은 상관관계가 있을 것이라 가정하고, 가정을 증명하고자 기존의 6개의 감성뿐만 아니라, 칼라와 텍스처로 구분될 수 없는 4개의 감성을 추가하였다. 도 6은 위 언급한 4가지 감성에 상응하는 직물영상의 샘플을 나타낸 것이다.
그러나, 시각적 요소 중, 패턴은 칼라와 텍스처와 같이 간단한 스칼라 값으로 표현되기 어렵기 때문에 기존 연구에서처럼 퍼지 룰을 생성하기가 매우 어렵다. 그러므로 본 발명에서는 패턴을 자동적으로 식별하고 그에 따른 감성을 예측하기 위해 신경망 기반의 시스템을 개발하였다. 제안된 신경망 기반 예측 시스템은 도 7과 도시된 바와 같다.
위 도 7을 참조하면, 다층 퍼셉트론(Multilayer Perceptron: MLP)으로 이루 어진 신경망 기반 예측 시스템은 입력층(input layer)(710), 은닉층(hidden layer)(712), 출력층(output layer)(714)으로 구성되어 있으며, 각 계층에서의 노드들은 완전 연결되어 있다. 이러한 신경망의 가중치를 학습하기 위해 직물 영상, I와 설문조사를 통해 그 영상에 색인된 감성 값, d의 쌍으로 구성된 (I,d)를 패턴으로 사용하여 BP(Back Propagation) 알고리즘으로 학습한다.
본 발명에서는 신경망의 입력 값으로 패턴 이미지(702) 자체의 로 데이터(raw data) 대신 오토리그레시브 기법(autoregressive method)를 통한 가공된 데이터를 사용한다. 로 데이터(Raw data)는 말 그대로 가공되지 않은 데이터로써 원 영상 그대로를 사용함을 뜻하며 로 픽셀 데이터(raw-pixel data)는 텍스처를 표현하는 가장 쉽고 보편적인 방법으로 많이 사용되고 있으나, 주어진 입력 윈도우 M×M 내에 모든 화소 값을 신경망의 입력으로 사용하는 것은 입력 노드의 개수를 지나치게 크게 만들기 때문에 신경망 학습 및 테스트의 속도를 느리게 만드는 주된 요인이 된다.
따라서 입력 노드 개수를 줄이기 위해 본 발명에서는 오토리그레시브 기법을 사용하여 M2의 노드 개수를 4M-3개로 줄여 사용하기로 한다. 위 도 7은 오토리그레시브 기법을 사용하였을 때, 7×7윈도우 상에서의 신경망 입력 값을 나타낸다. 도 7의 마스크(700)에서 회색으로 채워진 화소만이 신경망의 입력 데이터 값으로 사용된다. 은닉 노드 수는 실험을 통하여 임의로 정해진다.
*이때 신경망의 출력층(714)으로부터 출력되는 출력 값은 0∼1 사이의 실수 값으로 나타나며, 0.5보다 클 경우 긍정적인 감성을 나타내고, 0.5보다 작을 경우 반대의 감성을 나타내는 것으로 판단한다. 입력 패턴 영상의 모든 픽셀을 주사한 후, 각 픽셀에 감성 값에서 가장 많이 평가된 감성을 그 입력 영상의 감성으로 지정한다.
이하에서는, 본 발명의 인덱싱 자동화 시스템에서 성능을 측정한 도 8 및 [표 1], [표 2]의 실험 결과를 바탕으로 본 발명의 시스템 성능을 설명하고자 한다.
설문조사를 통해 얻어진 데이터 중 절반은 앞에서 서술한 퍼지 규칙 세우고 신경망을 학습시키기 위해 사용되고, 나머지는 제안된 시스템의 성능을 평가하기 위해 사용되었다. 그 결과는 [표 1] 와 [표 2]에 정리되어 있으며, [표 1]은 칼라, 텍스처, 패턴 등의 시각적 요소에 따른 6가지 감성의 성능을 나타낸 것이고, [표 2]는 패턴을 이용한 4가지 감성의 예측 결과 실험치를 나타낸 것이다.
위 도 8과 [표 1]에서 보는 것과 같이 "cold-warm"과 같은 6개의 감성에서 패턴을 통한 감성 예측 성능이 61.98%인데 비해 칼라와 텍스처를 통한 예측 성능(89.08%)이 월등히 뛰어난 것을 볼 수 있다. 이것은 이 감성들이 상대적으로 칼라와 텍스처에 비해 패턴과는 낮은 상관관계가 있음을 나타낸다
Emotional features color+texture recall color+textureprecision pattern recall pattern precision
cold-warm 85.64 79.99 62.50 93.48
dark-light 82.94 83.40 50.00 50.00
weak-strong 85.82 82.77 71.90 75.19
soft-hard 93.50 83.30 50.00 40.00
dismal-cheerful 100.00 100.00 75.00 95.83
sober-gay 86.56 87.36 62.50 78.57
total 89.08 86.14 61.98 72.18
그에 반해, 칼라와 텍스처에 대해서 분류할 수 없었던 'unnatural-natural'과 같은 4가지의 감성은 패턴 요소를 사용해서 분류한 결과, 아래 [표 2]에서 보는 것과 같이 82.66%이라는 좋은 성능을 보여주었다.
Emotional features pattern recall pattern precision
unnatural-natural 79.46 80.56
static-dynamic 92.86 96.88
stable-unstable 83.33 85.00
plain-gaudy 75.00 76.89
total 82.66 84.83
그것은 그 감성들이 패턴과 밀접한 상관관계가 있다는 사실을 증명한다. 결론적으로, 본 발명에서 제안한 시스템은 6가지의 감성은 칼라와 텍스처 기반으로, 4가지의 감성은 패턴을 기반으로 분류하여 감성을 예측한 결과 10가지의 감성에 대해 총 86% 이상의 성능을 보여주었다.
한편, 본 발명에서는 감성을 필요로 하는 다양한 응용어플리케이션을 위한 기본적인 연구이다. 그러므로 본 발명의 시스템을 기반으로 다양한 확장이 자유롭다. 도 9는 우리는 감성을 통한 이미지를 인덱싱하고, 그것을 확정하여 가상 패션 시뮬레이션 시스템에 적용한 예이다.
이러한 기존 작업에서 우리는 기존의 감성 표현에서 해당 분야에 적합한 온토로지를 확장, 정의하고 사용자의 감성을 표현하기 위한 사용자 인터페이스 방법을 연구하여 도 10에서 보여지는 바와 같이 다른 분야에 확장 가능한 감성 기반 인덱싱 시스템과 응용 어플리케이션을 작성할 수 있다.
즉, 감성을 사용자 인터페이스로 사용하기 위해서는, 일 예로서 도 10에 도시된 바로부터 알 수 있는 바와 같이, 사용자가 느끼는 감성을 정확하게 입력받을 수 있어야 한다. 인간의 감성을 표현하는 대표적인 방법인 감성어휘는 여러 가지 의미를 내포하기 때문에 같은 느낌에도 사람마다 다른 어휘를 사용하거나 같은 어휘에 대해서도 다른 느낌으로 인식한다. 이러한 감성어휘를 보완할 수 있도록 도 10에서 보여지는 것처럼 감성 아이콘(Emotional icon)(900)을 정의하여 이러한 제한점을 극복하고 사용자의 감성을 직관적으로 표현하고자 한다. 또한 사용자의 다양한 감성을 표현하기 위해서는 본 발명에서 사용한 13개의 감성요소만으로는 부족하기 때문에 도 10의 감성 온톨로지(Emotion Ontology)(902)를 구축하여 대표적인 감성 표현뿐만 아니라 감성어휘의 다의성과 동의관계를 이용하여 감성을 다양하게 표현할 수 있게 하고자 한다. 감성을 이용하여 선택된 직물 영상은 도 10의 3차원 렌더링 시스템(rendering system)(904)에서 3차원 아바타에 매핑 되어 사용자가 선택한 직물이 3차원 시뮬레이션(3D Simulation)(906)에서 실제적으로 입혀지는 결과를 볼 수 있게 함으로써 패션 분야에서 효과적으로 사용될 수 있음을 보여준다.
상술한 본 발명의 설명에서는 구체적인 실시 예에 관해 설명하였으나, 여러 가지 변형이 본 발명의 범위에서 벗어나지 않고 실시될 수 있다. 따라서 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 특허청구범위에 의해 정하여져야 한다.
이상에서 설명한 바와 같이, 본 발명에서는 실제 직물영상에서 시각적 요소를 추출하고 그러한 시각적 요소로부터 감성으로 인덱싱 하는 일련의 과정을 위한 자동화된 시스템을 제공한다. 감성기반 인터페이스를 필요로 하는 패션, 섬유디자인, 상품 디자인등과 같은 분야는 사용자의 요구와 성향이 유행이나, 사회적 영향에 따라 다양하고 빠르게 변화하나, 종래의 감성과 시각적 요소를 위한 온토로지 구축만으로는 이러한 빠른 변화에 발 빠르게 적용될 수 없었던 종래 문제점을 해결하기 위해 시각적 요소로부터 감성을 바로 추출할 수 있는 자동화된 시스템을 제공함으로써 빠른 변화에 능동적으로 대응할 수 있는 이점이 있다.
또한, 각 시각적 요소에 따른 다단계로 평가하는 시스템을 제안함으로써, 특정 요소에 따라 영향 받는 감성이 다르다는 사실을 바탕으로 직물 영상에 대한 평가시스템의 성능을 더 높일 수 있는 이점이 있다.

Claims (14)

  1. 직물의 시각정보로부터 유용한 요소를 추출하고, 그와 관련된 특정 감성에 따라 직물 영상을 효율적으로 인덱싱할 수 있는 감성 기반 직물 인덱싱 자동화 시스템으로서,
    인덱싱 하고자 하는 직물 영상의 디지털 이미지로부터 퍼지 룰에 기반하여 해당 직물영상의 칼라와 텍스처 성분을 추출하는 영상특징 추출부와,
    상기 디지털 이미지로부터 신경망에 기반하여 직물영상의 특징적 패턴 정보를 추출하는 영상패턴 추출부와,
    상기 영상특징 및 패턴 추출부로부터 추출된 직물 영상의 칼라와 텍스처 및 패턴정보를 이용하여 해당 직물 영상에 대한 감성을 예측하는 감성 예측부
    를 포함하는 감성 기반 직물 인덱싱 자동화 시스템.
  2. 제 1 항에 있어서,
    상기 시스템은,
    상기 감성 예측부로부터 예측된 감성 정보에 대응되는 직물모양을 인덱싱하고, 상기 인덱싱된 직물모양을 이용하여 가상 패션 시뮬레이션을 수행하는 3D랜더링부를 더 포함하는 것을 특징으로 하는 감성 기반 직물 인덱싱 자동화 시스템.
  3. 제 1 항에 있어서,
    상기 영상특징 추출부는,
    상기 직물 영상의 칼라추출을 위해 상기 직물영상의 디지털 이미지에서 RGB값을 HSI(Hue Saturation Intensity)값으로 변환하는 것을 특징으로 하는 감성 기반 직물 인덱싱 자동화 시스템.
  4. 제 1 항에 있어서,
    상기 영상특징 추출부는,
    상기 직물영상의 칼라와 텍스처의 성분 추출을 위해, 상기 직물영상 디지털 이미지에 퍼지룰을 적용하여 상기 직물영상의 칼라와 텍스처를 스칼라값으로 산출하는 것을 특징으로 하는 감성 기반 직물 인덱싱 자동화 시스템.
  5. 제 1 항에 있어서,
    상기 감성 예측부는,
    상기 직물 영상으로부터 추출된 칼라와 텍스처에 대한 스칼라값을 기반으로 해당 직물 영상에 대한 6쌍의 감성을 예측하는 것을 특징으로 하는 감성 기반 직물 인덱싱 자동화 시스템.
  6. 제 5 항에 있어서,
    상기 감성 예측부는,
    상기 직물영상의 텍스처 성분만을 이용하여 1차로 감성을 예측한 후, 칼라성분과 텍스처 성분을 이용하여 2차로 감성을 예측하는 것을 특징으로 하는 감성 기반 직물 인덱싱 자동화 시스템.
  7. 제 6 항에 있어서,
    상기 직물 영상의 칼라와 텍스처 스칼라값에 기반한 6가지의 감성은, 차가움-따뜻함(cold-warm), 어두움-밝음(dark-light), 약함-강함(weak-strong), 부드러움-딱딱함(soft-hard), 우울함-명랑함(dismal-cheerful), 침착함-활발함(sober-gay) 인 것을 특징으로 하는 감성 기반 직물 인덱싱 자동화 시스템.
  8. 제 1 항에 있어서,
    상기 영상패턴 추출부는,
    상기 직물영상의 디지털 이미지를 직물영상의 에지 이미지로 변환한 후, 작은 이미지로 분할, 이어서 각 작은 이미지 중 에지정보가 상대적으로 가장 많이 존재하는 이미지를 패턴 이미지로 선택한 후, 상기 선택된 패턴 이미지의 이미지 데이터를 신경망 기반의 다층 퍼셉트론 시스템의 입력값으로 사용하여 패턴정보를 산출하는 것을 특징으로 하는 감성 기반 직물 인덱싱 자동화 시스템.
  9. 제 8 항에 있어서,
    상기 디지털 이미지는, sobel 알고리즘을 통해 에지 이미지로 변환되는 것을 특징으로 하는 감성 기반 직물 인덱싱 자동화 시스템.
  10. 제 8 항에 있어서,
    상기 신경망의 입력 값으로 사용되는 패턴이미지 데이터는, 오토리그레시브 기법을 통해 가공되는 것을 특징으로 하는 감성 기반 직물 인덱싱 자동화 시스템.
  11. 제 10 항에 있어서,
    상기 패턴 이미지는, 원본 디지털 이미지상 7×7 원도우 크기 데이터로 설정되는 것을 특징으로 하는 감성 기반 직물 인덱싱 자동화 시스템.
  12. 제 1 항에 있어서,
    상기 감성 예측부는,
    상기 영상패턴 추출부로부터 신경망 기반의 시스템을 통해 추출되는 직물영상의 패턴정보에 따라 4가지의 감성을 예측하는 것을 특징으로 하는 감성 기반 직물 인덱싱 자동화 시스템.
  13. 제 12 항에 있어서,
    상기 감성 예측부는,
    상기 신경망 기반의 다층 퍼셉트론 시스템을 통해 0∼1 사이의 실수값으로 출력되는 상기 직물 영상의 패턴 정보를 수신하여, 0.5보다 큰 경우 긍정적인 감성을 나타내고, 0.5보다 작은 경우 반대의 감성을 나타내는 것으로 인식하는 것을 특징으로 하는 감성 기반 직물 인덱싱 자동화 시스템.
  14. 제 12 항에 있어서,
    상기 직물영상의 패턴으로 예측되는 4가지의 감성은, 부자연스러움-자연스러움(unnatural-natural), 정적임-동적임(static-dynamic), 안정적임-불안정적 임(stable-unstable), 평범함-화려함(plain-gaudy) 인 것을 특징으로 하는 감성 기반 직물 인덱싱 자동화 시스템.
KR1020070057380A 2007-05-07 2007-06-12 감성기반 직물 인덱싱 자동화 시스템 KR100907760B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020070049460 2007-05-07
KR20070049460 2007-05-07

Publications (2)

Publication Number Publication Date
KR20080099099A KR20080099099A (ko) 2008-11-12
KR100907760B1 true KR100907760B1 (ko) 2009-07-15

Family

ID=40286291

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070057380A KR100907760B1 (ko) 2007-05-07 2007-06-12 감성기반 직물 인덱싱 자동화 시스템

Country Status (1)

Country Link
KR (1) KR100907760B1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101157744B1 (ko) * 2010-05-06 2012-06-25 윤진호 취향 요소에 기초한 상품 추천 방법과 추천된 상품들을 표시하는 방법 및 이들을 이용한 상품 추천 시스템
KR101487828B1 (ko) * 2011-04-22 2015-01-30 제일모직주식회사 컬러 시뮬레이션 장치 및 방법, 그리고 이를 위한 프로그램을 기록한 기록 매체
DE102017209857A1 (de) 2017-06-12 2018-12-13 Henkel Ag & Co. Kgaa Erkennung einer Verunreinigung und/oder einer Eigenschaft zumindest eines Teils einer Textilie
WO2021230675A1 (ko) * 2020-05-13 2021-11-18 (주)사맛디 딥러닝 기반 대상체 감성 인식 방법 및 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11350337A (ja) 1998-06-10 1999-12-21 Kurabo Ind Ltd 織物の視覚的な感性特性の推定方法及び織物の製造方法
KR20010079421A (ko) * 2001-07-14 2001-08-22 홍순모 패션물의 디자인 삼차원입체 매핑 기능을 갖는 디자인방법 및 시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11350337A (ja) 1998-06-10 1999-12-21 Kurabo Ind Ltd 織物の視覚的な感性特性の推定方法及び織物の製造方法
KR20010079421A (ko) * 2001-07-14 2001-08-22 홍순모 패션물의 디자인 삼차원입체 매핑 기능을 갖는 디자인방법 및 시스템

Also Published As

Publication number Publication date
KR20080099099A (ko) 2008-11-12

Similar Documents

Publication Publication Date Title
Chun Queerying homophily
Machado et al. Computerized measures of visual complexity
Todorov et al. Validation of data-driven computational models of social perception of faces.
EP4184414A1 (en) Product recommendation device and method based on image database analysis
Liu et al. Variable augmented neural network for decolorization and multi-exposure fusion
Graham et al. Mapping the similarity space of paintings: image statistics and visual perception
CN109657156A (zh) 一种基于循环生成对抗网络的个性化推荐方法
CN106228177A (zh) 基于卷积神经网络的日常生活物体图像识别方法
KR100907760B1 (ko) 감성기반 직물 인덱싱 자동화 시스템
Demirci Similarity relation matrix-based color edge detection
Kang Combining grey relationship analysis and neural network to develop attractive automobile booth design
CN108446605B (zh) 复杂背景下双人交互行为识别方法
Messer et al. Predicting social perception from faces: A deep learning approach
Ranjgar et al. A novel method for emotion extraction from paintings based on Luscher’s psychological color test: case study Iranian-Islamic paintings
Zhang et al. Prediction of human restorative experience for human-centered residential architecture design: a non-immersive VR–DOE-based machine learning method
Kim et al. Emotion-based textile indexing using colors, texture and patterns
KR20220012786A (ko) 데이터 증강 기반 스타일 분석 모델 학습 장치 및 방법
Yadahalli et al. Facial micro expression detection using deep learning architecture
Funt et al. Does colour really matter? Evaluation via object classification
Colombo et al. Streetwise: Mapping Citizens' Perceived Spatial Qualities
Siraj et al. Emotion classification using neural network
CN111241372B (zh) 根据用户偏好学习预测颜色和谐程度的方法
Wan et al. [Retracted] Restaurant Interior Design under Digital Image Processing Based on Visual Sensing Technology
KR20220012784A (ko) 데이터 증강 기반 공간 분석 모델 학습 장치 및 방법
Rogowitz et al. Integrating human-and computer-based approaches to feature extraction and analysis

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120629

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee