KR101169717B1 - The apparatus and method of change a emotion information with the five contents impormation - Google Patents

The apparatus and method of change a emotion information with the five contents impormation Download PDF

Info

Publication number
KR101169717B1
KR101169717B1 KR1020100088903A KR20100088903A KR101169717B1 KR 101169717 B1 KR101169717 B1 KR 101169717B1 KR 1020100088903 A KR1020100088903 A KR 1020100088903A KR 20100088903 A KR20100088903 A KR 20100088903A KR 101169717 B1 KR101169717 B1 KR 101169717B1
Authority
KR
South Korea
Prior art keywords
emotion
emotional
unit
information data
touch
Prior art date
Application number
KR1020100088903A
Other languages
Korean (ko)
Other versions
KR20120026787A (en
Inventor
강장묵
차재상
이선희
최성진
Original Assignee
서울과학기술대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울과학기술대학교 산학협력단 filed Critical 서울과학기술대학교 산학협력단
Priority to KR1020100088903A priority Critical patent/KR101169717B1/en
Publication of KR20120026787A publication Critical patent/KR20120026787A/en
Application granted granted Critical
Publication of KR101169717B1 publication Critical patent/KR101169717B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/23Updating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/435Filtering based on additional data, e.g. user or group profiles
    • G06F16/436Filtering based on additional data, e.g. user or group profiles using biological or physiological data of a human being, e.g. blood pressure, facial expression, gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/435Filtering based on additional data, e.g. user or group profiles
    • G06F16/437Administration of user profiles, e.g. generation, initialisation, adaptation, distribution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/40Data acquisition and logging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Physiology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 종래 햅틱기술이 주로 컴퓨터나 단말기의 기능 또는 서비스에 연결하는 작업에만 제한적으로 사용되고, 푸쉬 또는 흔들림으로 입력되는 하드웨어적인 입력값을 소프트웨어적인 감성값으로 변환시키는 장치가 없어서, 다양한 감성 애플리케이션을 활성화시킬 수가 없고, 이로 인해 감성 정보가 손실되는 문제점을 개선하고자, 햅틱입력부, 햅틱 API(Application Interface), 오감추출부, 감성애플리케이션 표출부가 구성됨으로서, 사용자가 입력한 촉각 및 촉감에 대한 터치정보를 1:1 매칭된 감성정보로 추출 및 추론할 수 있고, 촉각이나 촉감을 통한 감성 환경을 이용하여, 새로운 형태의 커뮤니케이션을 입/출력할 수 있는 장치로서 사용할 수 있고, 감성기반의 가상현실서비스, 가상게임, 로보스틱, 의료, 예술 및 디자인, 문학등과 같은 다양한 감성 어플리케이션 서비스를 활성화시킬 수가 있는 햅틱으로부터 얻은 오감 컨테츠를 감성정보로 변환시키는 장치 및 방법을 제공하는데 그 목적이 있다.The present invention is a conventional haptic technology is mainly used only for the task of connecting to a function or service of a computer or a terminal, there is no device for converting the hardware input value by the push or shake input to the software emotional value, various emotion applications The haptic input unit, the haptic API (Application Interface), the five sense extracting unit, and the emotional application display unit are configured to improve the problem that the emotional information is lost. It can be extracted and inferred with 1: 1 matched emotional information, and can be used as a device that can input / output new forms of communication using an emotional environment through tactile or tactile senses, emotional based virtual reality service, Various emotions such as virtual game, robotic, medical, art and design, literature An object of the present invention is to provide an apparatus and method for converting five sense contents obtained from haptics capable of activating an application service into emotional information.

Description

햅틱으로부터 얻은 오감 컨테츠를 감성정보로 변환시키는 장치 및 방법{THE APPARATUS AND METHOD OF CHANGE A EMOTION INFORMATION WITH THE FIVE CONTENTS IMPORMATION}TECHNICAL APPARATUS AND METHOD OF CHANGE A EMOTION INFORMATION WITH THE FIVE CONTENTS IMPORMATION

본 발명은 스마트폰, IPTV, 컴퓨터모니터 상에 구비된 터치스크린을 통해 얻은 정보를 감성정보로 변환하여 처리하는 하드웨어적인 입력값을 소프트웨어적인 감성값으로 변환시키는 햅틱으로부터 얻은 오감 컨테츠를 감성정보로 변환시키는 장치 및 방법에 관한 것이다.
The present invention converts the five senses contents obtained from haptics to emotional information by converting the information obtained through the touch screen provided on the smart phone, IPTV, computer monitor into emotional information and converting the hardware input value into software emotional value. To an apparatus and a method for causing the

일반적으로 피부가 물체 표면에 닿았을 때 느끼는 촉감(tactile feedback)와 관절과 근육의 움직임이 방해될 때 느껴지는 감각적인 힘(kinesthetic force)을 햅틱이라 한다.In general, tactile feedback when the skin touches the surface of the object and kinesthetic force when the movement of joints and muscles is disturbed are called haptics.

즉, 촉감(tactile feedback) + 감각적인 힘(kinesthetic force) = 햅틱이다. 따라서 햅틱 안에는 이미 터치기능이 포함된 경우가 많으며 산업현장에서 터치와 햅틱을 혼용하여 사용하는 현실이다. That is, tactile feedback + kinesthetic force = haptic. Therefore, in many cases, the touch function is already included in the haptic, and the reality of using touch and haptic in the industrial field.

종래기술은 주로 촉각에 의존하여 인간과 컴퓨터 또는 단말기 간의 보다 인간친화적인 인터페이스 제공에 초점을 맞추고 있다. The prior art focuses primarily on providing a more human-friendly interface between a human and a computer or terminal, depending on the sense of touch.

이로 인해, 푸쉬 또는 흔들림으로 입력되는 하드웨어적인 입력값을 소프트웨어적인 감성값으로 변환시키는 장치가 없어서, 다양한 감성 애플리케이션을 활성화시킬 수가 없고, 이로 인해 감성 정보가 손실되는 문제점이 있었다.
As a result, there is no device for converting the hardware input value input by push or shaking into the software emotional value, so that various emotional applications cannot be activated, thereby causing emotional information to be lost.

국내등록특허공보 제10-0714535호(2007년05월07일 공고)Domestic Patent Publication No. 10-0714535 (announced May 7, 2007)

상기의 문제점을 해결하기 위해 본 발명에서는 사용자가 입력한 촉각 및 촉감에 대한 터치정보를 1:1 매칭된 감성정보로 추출 및 추론할 수 있고, 촉각이나 촉감을 통한 감성 환경을 이용하여, 새로운 형태의 커뮤니케이션을 입/출력할 수 있는 장치로서 사용할 수 있고, 감성기반의 가상현실서비스, 가상게임, 로보스틱, 의료, 예술 및 디자인, 문학등과 같은 다양한 감성 어플리케이션 서비스를 활성화시킬 수가 있는 햅틱으로부터 얻은 오감 컨테츠를 감성정보로 변환시키는 장치 및 방법을 제공하는데 그 목적이 있다.
In order to solve the above problems, the present invention can extract and infer touch information about a user's sense of touch and touch as 1: 1 matched emotion information, and use a new environment by using an emotional environment through touch or touch. From haptics that can be used as a device for inputting / outputting communication, and can activate various emotional application services such as emotion-based virtual reality services, virtual games, robotic, medical, art and design, literature, etc. An object of the present invention is to provide an apparatus and method for converting five senses contents into emotional information.

상기의 목적을 달성하기 위해 본 발명에 따른 햅틱으로부터 얻은 오감 컨테츠를 감성정보로 변환시키는 장치는The apparatus for converting the five senses content obtained from the haptic according to the present invention to the emotional information to achieve the above object

스마트폰, IPTV, 컴퓨터모니터 상에 구비된 터치스크린(1)에 눌러진 촉각, 촉감에 관한 터치정보데이터를 감성기반 웹서버(2)에 전송시켜 맞춤형 감성정보데이터로 변환시키고, 변환된 맞춤형 감성정보데이터를 스마트폰, IPTV, 컴퓨터모니터 상에 구비된 터치스크린 화면상에 감성 애플리케이션으로 활성화시키는 감성정보변환모듈(10)이 포함되어 구성됨으로서 달성된다.
Sends the touch information data about the tactile sense and the touch pressed on the touch screen 1 provided on the smart phone, IPTV, computer monitor to the emotion-based web server 2 to convert the customized emotion information data, and the converted customized emotion Emotional information conversion module 10 for activating the information data as an emotional application on the touch screen screen provided on the smartphone, IPTV, computer monitor is achieved by being configured.

이상에서 설명한 바와 같이, 본 발명에서는 사용자가 입력한 촉각 및 촉감에 대한 터치정보를 1:1 매칭된 감성정보로 추출 및 추론할 수 있고, 촉각이나 촉감을 통한 감성 환경을 이용하여, 새로운 형태의 입출력용 커뮤니케이션 환경을 제시해 줄 수 있어, 감성기반의 가상현실서비스, 가상게임, 로보스틱, 의료, 예술 및 디자인, 문학 등과 같은 다양한 감성 어플리케이션 서비스를 활성화시킬 수가 있는 좋은 효과가 있다.
As described above, in the present invention, the touch information input by the user and the touch information can be extracted and inferred as 1: 1 matched emotion information, and a new type of emotion is used by using the touch environment. By presenting a communication environment for input and output, there is a good effect to activate a variety of emotional application services such as emotion-based virtual reality services, virtual games, robotic, medical, art and design, literature.

도 1은 본 발명에 따른 햅틱으로부터 얻은 오감 컨텐츠를 감성정보로 변환시키는 장치의 구성요소를 도시한 블럭도,
도 2는 본 발명에 따른 감성정보변환모듈(10)의 구성요소를 도시한 블럭도,
도 3은 본 발명에 따른 감성추출?전송부(400)의 구성요소를 도시한 블럭도,
도 4는 본 발명에 따른 감성애플리케이션 표출부(500)의 구성요소를 도시한 블럭도,
도 5는 본 발명에 따른 감성추출부(420)의 구성요소를 도시한 블럭도,
도 6은 본 발명에 따른 감성기반 플랫폼의 구성요소를 도시한 블럭도,
도 7은 본 발명에 따른 햅틱으로부터 얻은 오감 컨테츠를 감성정보로 변환시키는 방법을 도시한 순서도.
1 is a block diagram showing the components of the apparatus for converting the five senses content obtained from the haptic according to the present invention into emotional information;
2 is a block diagram showing the components of the emotional information conversion module 10 according to the present invention;
3 is a block diagram showing the components of the emotion extraction and transmission unit 400 according to the present invention;
4 is a block diagram showing the components of the emotional application display unit 500 according to the present invention,
5 is a block diagram showing the components of the emotional extraction unit 420 according to the present invention;
6 is a block diagram showing the components of the emotion-based platform according to the present invention,
7 is a flowchart illustrating a method of converting five senses contents obtained from a haptic to emotional information according to the present invention.

본 발명에서 설명되는 촉각은 외부 자극에 대해 반응하는 감각의 한 종류. 외수용기로 접촉에 의한 자극을 인지하는 것으로, 터치스크린에 구성된 촉각센서를 통해 사용자가 접촉한 자극을 센싱한다.Tactile as described herein is a type of sensation that responds to external stimuli. Recognizing the stimulus caused by the contact with the external container, and senses the stimulus touched by the user through the tactile sensor configured on the touch screen.

그리고, 본 발명에 설명되는 촉감은 사용자의 손가락이 터치스크린에 닿는 감촉으로, 터치스크린에 눌러진 압력의 세기를 촉감센서를 통해 센싱한다.
In addition, the touch described in the present invention is a touch of the user's finger touching the touch screen, and senses the strength of the pressure pressed on the touch screen through the tactile sensor.

이하, 본 발명에 따른 바람직한 실시예를 도면을 첨부하여 설명한다.Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명에 따른 햅틱으로부터 얻은 오감 컨텐츠를 감성정보로 변환시키는 장치의 구성요소를 도시한 블럭도에 관한 것으로, 이는 스마트폰, IPTV, 컴퓨터모니터 상에 구비된 터치스크린(1)에 눌러진 촉각, 촉감에 관한 터치정보데이터를 감성기반 웹서버(2)에 전송시켜 맞춤형 감성정보데이터로 변환시키고, 변환된 맞춤형 감성정보데이터를 스마트폰, IPTV, 컴퓨터모니터 상에 구비된 터치스크린 화면상에 감성 애플리케이션으로 활성화시키는 감성정보변환모듈(10)이 포함되어 구성된다.
1 is a block diagram showing the components of the device for converting the five senses content obtained from the haptic to emotional information according to the present invention, which is pressed on the touch screen (1) provided on a smartphone, IPTV, computer monitor Sends touch information data about true sense and touch to the emotion-based web server 2 and converts it into customized emotion information data, and converts the converted customized emotion information data into a smartphone, IPTV, and computer monitor on the touch screen screen. Emotional information conversion module 10 to be activated in the emotional application is configured to include.

상기 감성정보변환모듈(10)은 햅틱입력부(100), 햅틱 API부(200), 감성 수집부(300), 감성추출?전송부(400), 감성애플리케이션 표출부(500)로 구성된다.
The emotion information conversion module 10 is composed of a haptic input unit 100, haptic API unit 200, emotion collection unit 300, emotion extraction and transmission unit 400, emotion application expression unit 500.

먼저, 본 발명에 따른 햅틱입력부(100)에 관해 설명한다.First, the haptic input unit 100 according to the present invention will be described.

상기 햅틱입력부(100)는 스마트폰, IPTV, 컴퓨터모니터 상에 구비된 터치스크린을 통해 사용자로부터 눌러진 촉각, 촉감에 관한 터치정보데이터를 입력받는 역할을 한다.The haptic input unit 100 serves to receive touch information data about a tactile sense and a tactile sense pressed by a user through a touch screen provided on a smartphone, an IPTV, and a computer monitor.

이는 자이로 센서를 통한 좌우상하 흔들림을 통해 입력시키는 제1입력장치와, 진동소자를 통해 입력시키는 제2입력장치와, 터치스크린의 촉각, 촉감을 통해 입력시키는 제3입력장치로 구성된다.It is composed of a first input device to input through the left and right shaking up and down through the gyro sensor, a second input device to input through the vibration element, and a third input device to input through the tactile, tactile touch of the touch screen.

상기 터치정보데이터는 사용자의 감성이 기쁠때 입력되는 촉각, 촉감에 관한 제1 터치정보데이터, 사용자의 감성이 슬플때 입력되는 촉각, 촉감에 관한 제2 터치정보데이터, 사용자의 감성이 화날때 입력되는 촉각, 촉감에 관한 제3 터치정보데이터로 구성된다.
The touch information data may be input when the user's emotion is happy, first touch information data regarding touch, touch input when the user's emotion is sad, second touch information data regarding touch, and input when the user's emotion is angry And third touch information data relating to the tactile sense and tactile sense.

본 발명에서는 터치스크린에 폴리머 기반의 정전 용량 방식의 촉각센서를 이용한다.In the present invention, a capacitive tactile sensor based on a polymer is used for a touch screen.

여기서, 촉각센서는 기본적으로 PDMS Elastomer를 주재료로 사용한 확장이 가능한 촉각센서 모듈로서, 하나의 센서 모듈은 16*16어레이 형태로 구성된다. 사람의 표피와 같은 해상도인 1mm를 가지며, 초기의 각각 셀의 캐패시턴스는 약 180fF이다.Here, the tactile sensor is basically a tactile sensor module that can be expanded using PDMS Elastomer as a main material, and one sensor module is configured in a 16 * 16 array form. It has a resolution of 1 mm, which is the same as the human epidermis, and the initial capacitance of each cell is about 180 fF.

하나의 셀은 5개의 PDMS 층 사이에 구리 전극이 겹치게 되는 구조를 갖는다. 4개의 모듈을 ACP를 사용하여 32*32의 확장된 촉각센서 어레이를 만들 수 있다.
One cell has a structure in which copper electrodes overlap between five PDMS layers. Four modules can be used to create a 32 * 32 extended tactile sensor array using ACP.

본 발명에 사용되는 터치스크린은 크게 4가지 방식으로 구동된다.The touch screen used in the present invention is largely driven in four ways.

Capacitive 센싱방식, Piezoresistive 방식, Thermal 방식, Magnetic 방식으로 나뉜다.Capacitive sensing, Piezoresistive, Thermal, Magnetic

본 발명에서는 Capacitive 센싱방식을 사용한다. 여기서, Capacitive 센싱방식은 가속도에 의해 가동부가 변위했을 때, 가동부와 고정부 사이의 정전용량 변화를 검출하는 방식으로 사용되며, 광학특성이 상대적으로 좋고, 멀티 터치 유저인터페이스가 가능하며, 내구성이 강한 특성을 갖는다.
In the present invention, a capacitive sensing method is used. Here, the capacitive sensing method is used to detect a change in capacitance between the movable part and the fixed part when the movable part is displaced by acceleration, and has a relatively good optical characteristic, a multi-touch user interface, and strong durability. Has characteristics.

다음으로, 본 발명에 따른 햅틱 API(Application Programming Interface)(200)에 관해 설명한다.Next, a haptic API (Application Programming Interface) 200 according to the present invention will be described.

상기 햅틱 API(200)는 햅틱입력부로부터 입력받은 터치정보데이터를 원격지의 감성기반 웹서버에 연동시켜 감성기반 플랫폼에 실시간으로 업로딩시키도록 시스템 라이브러리를 사용할 수 있는 서비스 API(Application Programming Interface)를 제공하는 역할을 한다.The haptic API (200) provides a service API (Application Programming Interface) that can use a system library to upload the touch information data received from the haptic input unit to the emotion-based web server in real time to the emotion-based platform in real time Play a role.

이는 WMC 네트워크내의 사용자(Peer), 그룹(Group), 커뮤니티(Community)간에 서비스 라이브러리를 제공하고, 사용자(Peer), 그룹(Group), 커뮤니티(Community) 간의 탐색을 위해 탐색 서비스 라이브러리를 제공하며, 통신시 사용할 메시지를 작성하고 파이프 통신을 하는 동안 사용할 파이프 통신 서비스 라이브러리를 제공하고, WMC((WIPI Mobile Community) 입력용 파이프 및 WMC(WIPI Mobile Community) 출력용 파이프를 생성하여 WMC((WIPI Mobile Community) 메시지를 통해 송수신 라이브러리를 제공하는 WIPI-P2P 서비스 라이브러리가 포함되어 구성된다. It provides a library of services among Peers, Groups, and Communities within the WMC network, and provides a search service library for searching among Peers, Groups, and Communities. Create a message to use for communication, provide a pipe communication service library to use during pipe communication, and create a pipe for the WIPI Mobile Community (WMC) input and a pipe for the WIPI Mobile Community (WMC) output to create a WIPI Mobile Community (WMC). WIPI-P2P service library is provided to provide sending and receiving library through message.

여기서, 감성기반 플랫폼은 도 6에서 도시한 바와 같이, 윈도우 & 도트 넷 플렛폼(Windows & Dot Net Platform), 햅틱 API, 클리니컬 스킬 트레이너(Clinical Skills Trainer), 버츄얼 바인스(Virtual Veins), 버츄얼 룸바 펀쳐(Virtual Lumbar Puncture), 버츄얼 아네스테틱 블럭(Virtual Anaesthetic Blocks), 버츄얼 리널 바이오스피(Virtusal Renal Biospy), 버츄얼 이피듀얼(Virtual Epidurals), 버츄얼 씨비컬 스멀 싸이멀레이터(Virtual Cervical Smear Simulator), 버츄얼 딥 머스컬 인젝션(Virtual Deep Muscle Injections), 버츄얼 셔텨링(Virtual Suturing)으로 구성된다.
As shown in FIG. 6, the emotion-based platform includes a Windows & Dot Net Platform, a haptic API, a Clinical Skills Trainer, a Virtual Veins, and a Virtual Room Bar Puncher. (Virtual Lumbar Puncture), Virtual Anaesthetic Blocks, Virtual Renal Biospy, Virtual Epidurals, Virtual Cervical Smear Simulator, Virtual It consists of Virtual Deep Muscle Injections and Virtual Suturing.

다음으로, 본 발명에 따른 감성 수집부(300)에 관해 설명한다.Next, the emotion collection unit 300 according to the present invention will be described.

상기 감성수집부(300)는 감성기반 플랫폼을 통해 햅틱입력부로부터 입력받은 터치정보데이터 중 촉각, 촉감을 척도화하여 감성상태를 모델링시키는 역할을 한다.The emotion collection unit 300 serves to model the emotion state by quantifying the tactile sense and the touch of the touch information data received from the haptic input unit through the emotion-based platform.

이는 감성 측정 DB(310)와, 감성 상태 모델링 형성부(320)로 구성된다.It is composed of the emotional measurement DB 310 and the emotional state modeling forming unit 320.

상기 감성 측정 DB(310)는 사용자의 감성이 기쁠때, 슬플때, 화날때에 입력되는 촉각, 촉감에 관한 터치정보데이터를 저장하는 역할을 한다.
The emotion measurement DB 310 serves to store touch information data regarding the tactile sense and the touch input when the user's emotion is happy, sad, or angry.

상기 감성 상태 모델링 형성부(320)는 감성 측정 DB에 저장된 터치정보데이터를 통해 사용자의 감성에 따라 변동하는 촉각?촉감을 그래픽처리하여 감성상태를 모델링시키는 역할을 한다.The emotional state modeling forming unit 320 serves to model the emotional state by graphicly processing the tactile sensation and the sensation that changes according to the user's emotion through the touch information data stored in the emotional measurement DB.

즉, 사용자의 감성이 기쁠때 입력되는 촉각?촉감에 관한 제1 터치정보데이터와, 사용자의 감성이 슬플때 입력되는 촉각?촉감에 관한 제2 터치정보데이터와, 사용자의 감성이 화날때 입력되는 촉각?촉감에 관한 제3 터치정보데이터를 반복적으로 측정하고, 터치스크린에 눌러진 압력의 세기를 수치화하여 감성 측정 DB에 저장하고, 이를 그래픽으로 표출시켜 모델링시킨다.
That is, the first touch information data regarding the tactile sense and the touch input when the user's emotions are happy, the second touch information data regarding the tactile sense and the touch input when the user's emotions are sad, and the input when the user's emotion is angry The third touch information data related to the tactile sense and the touch are repeatedly measured, the intensity of the pressure pressed on the touch screen is numerically stored, and stored in the emotion measurement DB.

다음으로, 본 발명에 따른 감성추출?전송부(400)에 관해 설명한다.Next, the emotion extraction and transmission unit 400 according to the present invention will be described.

상기 감성추출?전송부(400)는 감성 수집부에 감성상태로 모델링된 터치정보데이터를 감성 변환 DB에 맵핑(Mapping)시켜 맞춤형 감성정보데이터를 추출한 후, 추출된 맞춤형 감성정보데이터를 스마트폰, IPTV, 컴퓨터모니터의 감성표출어플리케이션부로 전송시키는 역할을 한다.The emotion extraction and transmission unit 400 maps the touch information data modeled in the emotional state to the emotion conversion DB to the emotion conversion DB, extracts the customized emotion information data, and then extracts the extracted customized emotion information data from the smart phone, It plays a role of transmitting to the emotion expression application part of IPTV, computer monitor.

이는 감성 변환 DB(410), 감성추출부(420), 감성정보데이터 전송부(430)로 구성된다.It is composed of the emotion conversion DB 410, the emotion extraction unit 420, the emotion information data transmission unit 430.

상기 감성변환 DB(410)는 사용자의 감성이 기쁠때, 슬플때, 화날때에 입력되는 촉각, 촉감을 기준데이터값으로 미리 설정하여 저장해 놓은 데이터베이스이다.
The emotion conversion DB 410 is a database in which the user's emotions are happy and sad, when he is angry, the tactile and tactile inputs are set as reference data values and stored in advance.

상기 감성추출부(420)는 미리 설정된 사용자의 감성에 따른 촉각, 촉감에 관한 기준데이터값에, 실제 터치스크린을 통해 입력된 터치정보데이터를 비교연산한 후, 사용자의 맞춤형 감성정보데이터를 추출시키는 역할을 한다.The emotion extracting unit 420 compares the touch information data input through the actual touch screen with reference data values related to tactile and sensation according to the user's emotion, and extracts the user's customized emotion information data. Play a role.

이는 밴드패스필터(421), 절대치변환부(422), 비교부(423), 영역중심검출부(424), 영역간격검출부(425)로 구성된다.It is composed of a band pass filter 421, an absolute value conversion unit 422, a comparison unit 423, an area center detection unit 424, an area interval detection unit 425.

상기 밴드패스필터(421)는 감성수집부로부터 입력된 신호 SG1 중에서 촉각, 촉감의 검출에 필요한 주파수성분만을 추출한다. 이 예에서는,800Hz~1200Hz의 범위내의 주파수성분만이 밴드패스필터의 출력에 신호 SG2로서 나타난다. 여기서, 단어내의 촉각, 촉감에 의한 강도변화의 패턴이 신호 SG2에 나타나고 있는 것을 알 수 있다.The band pass filter 421 extracts only frequency components necessary for detecting the sense of touch and the sense of the signal SG1 input from the emotion collector. In this example, only frequency components in the range of 800 Hz to 1200 Hz appear as the signal SG2 at the output of the band pass filter. Here, it can be seen that the pattern of intensity changes due to tactile and tactile feelings in the word appears in the signal SG2.

상기 절대치변환부(422)는 입력되는 신호의 진폭을 그 절대치로 변환한다. 여기서, 절대치변환부가 진폭을 절대치로 변환하여 출력하면 신호 SG3이 나타난다.The absolute value converting unit 422 converts the amplitude of the input signal into its absolute value. Here, the signal SG3 appears when the absolute value converter converts the amplitude to an absolute value.

상기 비교부(423)는 신호 SG3의 역치와 비교하여 역치보다도 큰 성분만을 신호 SG4로서 출력한다. 즉, 비교부는 신호 SG3의 파워-스펙트럼의 중에서 값의 큰 성분만을 출력한다. 또, 비교부에 전압을 가하는 역치에 대해서는, 판별분석법이라고 불리는 방법을 사용하여 적응적으로 결정하고 있다. 여기서, 음성의 단어에 있어서의 촉각, 촉감패턴에 해당하는 2개의 영역 A1, A2가 신호 SG4에 명확하게 나타나게 된다. The comparison unit 423 outputs only the component larger than the threshold as the signal SG4 compared with the threshold of the signal SG3. In other words, the comparator outputs only a component having a large value among the power spectrum of the signal SG3. In addition, the threshold value which applies a voltage to a comparison part is adaptively determined using the method called the discrimination analysis method. Here, two regions A1 and A2 corresponding to the tactile and tactile patterns in the word of speech are clearly shown in the signal SG4.

상기 영역중심검출부(424)는 2개의 영역 A1, A2의 각각의 중심에 상당하는 위치가 나타난 시간 t1, t2를 검출한다. The area center detection unit 424 detects times t1 and t2 at which positions corresponding to the centers of the two areas A1 and A2 are shown.

상기 영역간격검출부(425)는 영역중심검출부가 검출한 2개의 시간 t1, t2에 관한 시간차를 영역간격 Ty로서 검출한다. 이 영역간격 Ty의 값은 터치스크린에 눌러진 촉각, 촉감에 관한 터치정보에 있어서의 촉각, 촉감패턴에 해당한다. 실제로는, 영역간격 Ty의 값을 평균화한 결과를 촉각, 촉감의 값으로서 이용하고 있다. 3가지 이상의 영역이 나타난 경우에는, 서로 인접하는 2개의 영역에 대해서 영역간격 Ty를 각각 계산하여, 요청된 복수의 영역간격 Ty를 평균화한 결과를 촉각, 촉감의값으로서 이용한다.
The area interval detection unit 425 detects the time difference between two times t1 and t2 detected by the area center detection unit as the area interval Ty. The value of this area interval Ty corresponds to the tactile and tactile pattern in the touch information about the tactile and tactile pressed by the touch screen. In fact, the result of averaging the value of the area | region spacing Ty is used as a value of a touch and a touch. When three or more regions appear, the area interval Ty is calculated for each of two adjacent areas, and the result of averaging the requested plurality of area intervals Ty is used as the value of tactile and tactile.

상기 감성정보데이터 전송부(430)는 추출된 맞춤형 감성정보데이터를 스마트폰, IPTV, 컴퓨터모니터의 감성표출어플리케이션부로 전송시키는 역할을 한다.The emotion information data transmission unit 430 serves to transmit the extracted customized emotion information data to the emotion expression application unit of the smart phone, IPTV, computer monitor.

이때 사용되는 통신방식은 WiFi망으로 구성된다.
The communication method used at this time is composed of a WiFi network.

다음으로, 본 발명에 따른 감성애플리케이션 표출부(500)에 관해 설명한다.Next, the emotional application display unit 500 according to the present invention will be described.

상기 감성애플리케이션 표출부(500)는 감성추출?전송부로 전송된 맞춤형 감성정보데이터를 스마트폰, IPTV, 컴퓨터모니터 화면에 애플리케이션 창으로 활성화시키는 역할을 하는 것으로, 이는 웹서버용 인터페이스부(510), 감성애플리케이션 활성화부(520)로 구성된다.The emotion application display unit 500 serves to activate the customized emotion information data transmitted to the emotion extraction and transmission unit as an application window on a smartphone, IPTV, computer monitor screen, which is a web server interface unit 510, emotion The application activator 520 is configured.

상기 웹서버용 인터페이스부(510)는 원격지의 감성기반 웹서버와 인터페이스하는 역할을 한다.The web server interface unit 510 serves to interface with a remote emotion-based web server.

상기 감성애플리케이션 활성화부(520)는 자바 가상 머신상에 구비된 감성어플리케이션 프로그램을 통해 스마트폰, IPTV, 컴퓨터모니터 화면에 사각형상 또는 원형상으로 감성 애플리케이션 창을 활성화시키는 역할을 한다.
The emotional application activator 520 serves to activate the emotional application window in a square or circular form on a smartphone, IPTV, computer monitor screen through an emotional application program provided on a Java virtual machine.

이하, 본 발명에 따른 햅틱으로부터 얻은 오감 컨테츠를 감성정보로 변환시키는 방법의 구체적인 동작과정에 관해 설명한다.
Hereinafter, a detailed operation process of the method for converting the five senses contents obtained from the haptic according to the present invention into emotional information will be described.

먼저, 햅틱입력부에서 스마트폰, IPTV, 컴퓨터모니터 상에 구비된 터치스크린을 통해 사용자로부터 눌러진 촉각, 촉감에 관한 터치정보데이터를 입력받는다(S100).
First, the haptic input unit receives touch information data regarding tactile sense and tactile sense pressed by a user through a touch screen provided on a smartphone, an IPTV, and a computer monitor (S100).

이어서, 햅틱 API(Application Interface)에서 햅틱입력부로부터 입력받은 터치정보데이터를 원격지의 감성기반 웹서버에 연동시켜 감성기반 플랫폼에 실시간으로 업로딩시키도록 인터페이스시킨다(S200).
Subsequently, the touch information data received from the haptic input unit in the haptic API (Interface Interface) is interfaced to the emotion-based web server of the remote place in real time to upload to the emotion-based platform (S200).

이어서, 감성 수집부에서 햅틱입력부로부터 입력받은 터치정보데이터 중 촉각, 촉감을 척도화하여 감성상태를 모델링시킨다(S300).
Subsequently, the emotion collection unit scales the tactile sense and the touch among the touch information data received from the haptic input unit to model the emotional state (S300).

이어서, 감성추출?전송부에서 감성 수집부를 통해 감성상태로 모델링된 터치정보데이터를 감성 변환 DB에 맵핑(Mapping)시켜 맞춤형 감성정보데이터를 추출한 후, 추출된 맞춤형 감성정보데이터를 스마트폰, IPTV, 컴퓨터모니터의 감성표출어플리케이션부로 전송시킨다(S400).
Subsequently, the emotion extraction and transmission unit maps the touch information data modeled in the emotion state through the emotion collection unit to the emotion conversion DB to extract customized emotion information data, and then extracts the extracted customized emotion information data from the smart phone, IPTV, Send to the emotion expression application unit of the computer monitor (S400).

끝으로, 감성애플리케이션 표출부에서 감성추출?전송부로 전송된 맞춤형 감성정보데이터를 스마트폰, IPTV, 컴퓨터모니터 화면에 애플리케이션 창으로 활성화시킨다(S500).
Finally, the personalized emotion information data transmitted from the emotion application display unit to the emotion extraction-transmission unit is activated as an application window on the smartphone, IPTV, computer monitor screen (S500).

10 : 감성정보변환모듈 100 : 햅틱입력부
200 : 햅틱 API부 300 : 감성 수집부
400 : 감성추출?전송부 410 : 감성 변환 DB
420 : 감성추출부 430 : 감성정보데이터 전송부
500 : 감성애플리케이션 표출부
10: emotional information conversion module 100: haptic input unit
200: haptic API unit 300: emotion collection unit
400: emotion extraction and transmission unit 410: emotion conversion DB
420: emotion extraction unit 430: emotion information data transmission unit
500: emotional application display unit

Claims (5)

스마트폰, IPTV, 컴퓨터모니터 상에 구비된 터치스크린(1)에 눌러진 촉각, 촉감에 관한 터치정보데이터를 감성기반 웹서버(2)에 전송시켜 맞춤형 감성정보데이터로 변환시키고, 변환된 맞춤형 감성정보데이터를 스마트폰, IPTV, 컴퓨터모니터 상에 구비된 터치스크린 화면상에 감성 애플리케이션으로 활성화시키도록 구성되도록 하기 위해, 스마트폰, IPTV, 컴퓨터모니터 상에 구비된 터치스크린을 통해 사용자로부터 눌러진 촉각, 촉감에 관한 터치정보데이터를 입력받는 햅틱입력부(100)와, 햅틱입력부로부터 입력받은 터치정보데이터를 원격지의 감성기반 웹서버에 연동시켜 감성기반 플랫폼에 실시간으로 업로딩시키도록 인터페이스시키는 햅틱 API(Application Interface)(200)와, 감성기반 플랫폼을 통해 햅틱입력부로부터 입력받은 터치정보데이터 중 촉각, 촉감을 척도화하여 감성상태를 모델링시키는 감성 수집부(300)와, 감성 수집부에 감성상태로 모델링된 터치정보데이터를 감성 변환 DB에 맵핑(Mapping)시켜 맞춤형 감성정보데이터를 추출한 후, 추출된 맞춤형 감성정보데이터를 스마트폰, IPTV, 컴퓨터모니터의 감성표출어플리케이션부로 전송시키도록 감성변환 DB(410), 감성추출부(420), 감성정보데이터 전송부(430)로 이루어진 감성추출?전송부(400)와, 감성추출?전송부로 전송된 맞춤형 감성정보데이터를 스마트폰, IPTV, 컴퓨터모니터 화면에 애플리케이션 창으로 활성화시키는 감성애플리케이션 표출부(500)가 구성되는 햅틱으로부터 얻은 오감 컨테츠를 감성정보로 변환시키는 장치에 있어서,
상기 감성추출부(420)는 감성수집부로부터 입력된 신호 SG1 중에서 촉각, 촉감의 검출에 필요한 주파수성분만을 추출하는 밴드패스필터(421)와,
입력되는 신호의 진폭을 그 절대치로 변환하는 절대치변환부(422)와,
신호 SG3의 역치와 비교하여 역치보다도 큰 성분만을 신호 SG4로서 출력하는 비교부(423)와,
2개의 영역 A1, A2의 각각의 중심에 상당하는 위치가 나타난 시간 t1, t2를 검출하는 영역중심검출부(424)와,
영역중심검출부가 검출한 2개의 시간 t1, t2에 관한 시간차를 영역간격 Ty로서 검출하는 영역간격검출부(425)로 구성되는 것을 특징으로 하는 햅틱으로부터 얻은 오감 컨테츠를 감성정보로 변환시키는 장치.
Sends the touch information data about the tactile sense and the touch pressed on the touch screen 1 provided on the smart phone, IPTV, computer monitor to the emotion-based web server 2 to convert the customized emotion information data, and the converted customized emotion Tactile pressed by the user through the touch screen provided on the smartphone, IPTV, computer monitor, so that the information data is configured to be activated by the emotional application on the touch screen screen provided on the smartphone, IPTV, computer monitor. , A haptic API (Interface) to interface with the haptic input unit 100 to receive touch information data on the tactile and the touch information data received from the haptic input unit to the emotion-based web server in real time to upload to the emotion-based platform in real time. Interface) 200, and the tactile sense of the touch information data received from the haptic input unit through the emotion-based platform, The emotion collection unit 300 that scales the emotion to model the emotion state, and maps the touch information data modeled in the emotion state to the emotion conversion DB to the emotion conversion DB to extract customized emotion information data, and then extract the customized emotion information. Emotion extraction and transmission unit consisting of emotional conversion DB 410, emotional extraction unit 420, emotional information data transmission unit 430 to transmit the emotional information data to the emotion expression application unit of the smart phone, IPTV, computer monitor ), And the emotion application data sent from the haptic to the emotion information to the emotion information application unit 500 for activating the customized emotion information data transmitted to the emotion extraction and transmission unit on the screen of the smartphone, IPTV, computer monitor In the apparatus,
The emotion extracting unit 420 is a band pass filter 421 for extracting only the frequency components necessary for the detection of tactile and tactile from the signal SG1 input from the emotional collecting unit;
An absolute value converting unit 422 for converting an amplitude of an input signal into an absolute value thereof;
A comparator 423 which outputs only a component larger than the threshold as a signal SG4 compared with the threshold of the signal SG3,
An area center detection unit 424 for detecting times t1 and t2 at which positions corresponding to the centers of the two areas A1 and A2 appear,
An apparatus for converting the five senses contents obtained from a haptic into emotional information, comprising an area interval detection unit (425) for detecting a time difference between two times t1 and t2 detected by the area center detection unit as an area interval Ty.
삭제delete 삭제delete 삭제delete 삭제delete
KR1020100088903A 2010-09-10 2010-09-10 The apparatus and method of change a emotion information with the five contents impormation KR101169717B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100088903A KR101169717B1 (en) 2010-09-10 2010-09-10 The apparatus and method of change a emotion information with the five contents impormation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100088903A KR101169717B1 (en) 2010-09-10 2010-09-10 The apparatus and method of change a emotion information with the five contents impormation

Publications (2)

Publication Number Publication Date
KR20120026787A KR20120026787A (en) 2012-03-20
KR101169717B1 true KR101169717B1 (en) 2012-07-30

Family

ID=46132488

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100088903A KR101169717B1 (en) 2010-09-10 2010-09-10 The apparatus and method of change a emotion information with the five contents impormation

Country Status (1)

Country Link
KR (1) KR101169717B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101337420B1 (en) * 2012-07-24 2013-12-06 전남대학교산학협력단 Emotional messaging apparatus

Also Published As

Publication number Publication date
KR20120026787A (en) 2012-03-20

Similar Documents

Publication Publication Date Title
JP6568257B2 (en) System for tactile representation of sensor input
US9990040B2 (en) Haptic CAPTCHA
Yeo et al. Wearable mechanotransduced tactile sensor for haptic perception
CN102262476B (en) Tactile Communication System And Method
US10599218B2 (en) Haptic conversion system using frequency shifting
TWI432994B (en) Apparatus and method for sensory feedback
KR20160003031A (en) Simulation of tangible user interface interactions and gestures using array of haptic cells
Ghiani et al. Vibrotactile feedback to aid blind users of mobile guides
KR20170072904A (en) Method, system for implementing operation of mobile terminal according to touching signal and mobile terminal
CN110389659A (en) The system and method for dynamic haptic playback are provided for enhancing or reality environment
WO2010009552A1 (en) Tactile feedback for key simulation in touch screens
CN104765461B (en) A kind of control method and electronic equipment
CN105814511B (en) Offset plane wrist input device, method and computer readable medium
EP3455704A1 (en) Multimodal haptic effects
Ho et al. IoTouch: whole-body tactile sensing technology toward the tele-touch
CN103631368A (en) Detection device, detection method and electronic equipment
KR101169717B1 (en) The apparatus and method of change a emotion information with the five contents impormation
KR20160039589A (en) Wireless space control device using finger sensing method
JP2014182717A (en) Information processor, information processing system and program
JP2008217684A (en) Information input and output device
CN114168059A (en) Handwriting generating method and device, storage medium and terminal equipment
Sinclair et al. Towards a standard on evaluation of tactile/haptic interactions
Mali et al. Hand gestures recognition using inertial sensors through deep learning
Tairych et al. Non-verbal communication through sensor fusion
CN113628080B (en) Score prediction method and device, storage medium and electronic equipment

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150701

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160721

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170911

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180709

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190709

Year of fee payment: 8