KR100806370B1 - Personal Computer System Suitable To Integration and Representation Five Senses - Google Patents

Personal Computer System Suitable To Integration and Representation Five Senses Download PDF

Info

Publication number
KR100806370B1
KR100806370B1 KR1020040091879A KR20040091879A KR100806370B1 KR 100806370 B1 KR100806370 B1 KR 100806370B1 KR 1020040091879 A KR1020040091879 A KR 1020040091879A KR 20040091879 A KR20040091879 A KR 20040091879A KR 100806370 B1 KR100806370 B1 KR 100806370B1
Authority
KR
South Korea
Prior art keywords
taste
recognition
personal computer
computer
delete delete
Prior art date
Application number
KR1020040091879A
Other languages
Korean (ko)
Other versions
KR20060044081A (en
Inventor
홍광석
신정훈
Original Assignee
성균관대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 성균관대학교산학협력단 filed Critical 성균관대학교산학협력단
Priority to KR1020040091879A priority Critical patent/KR100806370B1/en
Publication of KR20060044081A publication Critical patent/KR20060044081A/en
Application granted granted Critical
Publication of KR100806370B1 publication Critical patent/KR100806370B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Dermatology (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 차세대 퍼스널 컴퓨터로의 진화 가능한 하드웨어 플랫폼 및 소프트웨어 플랫폼, 그리고 사용자 인터페이스를 위한 입출력 장치를 갖추고서, 착용 형태에 적합한 소형화 및 경량화를 추구함과 동시에 필수 성능의 손실을 이루지 않기 위하여 손목시계형 착용식 컴퓨터 상에 필수 기능을 구현하였으며, 추가 기능 및 선능의 보완은 벨트형 착용 형태인 스마트 게이트 상에서 구현하였다.The present invention is equipped with an evolving hardware platform and software platform for the next generation personal computer, and an input / output device for a user interface, in order to achieve miniaturization and light weight suitable for a wearable form, and to achieve a loss of essential performance. Essential functions were implemented on the wearable computer, and additional functions and supplements of instincts were implemented on the smart gate, which is a belt type wearing form.

오감, 컴퓨터, 손목시계형 컴퓨터, 벨트형 게이트웨이Five senses, computer, watch computer, belt gateway

Description

오감 정보의 융합 및 재현 가능한 개인용 컴퓨터 시스템 {Personal Computer System Suitable To Integration and Representation Five Senses} Personal Computer System Suitable To Integration and Representation Five Senses             

도 1은 본 발명에 따른 오감 정보의 융합 및 재현 가능한 차세대 퍼스널 컴퓨터의 기능별 블록도를 도시한 도면.1 is a functional block diagram of a next-generation personal computer capable of fusing and reproducing five senses information according to the present invention.

도 2는 본 발명에 따른 오감 정보의 융합 및 재현 가능한 차세대 퍼스널 컴퓨터에서 채용될 수 있는 중앙처리장치의 일예를 도시한 도면.2 is a diagram showing an example of a central processing unit that can be employed in the next generation personal computer that can fuse and reproduce the five senses information according to the present invention.

도 3은 본 발명에 따른 오감 정보의 융합 및 재현 가능한 차세대 퍼스널 컴퓨터에서의 시각 정보 인식 흐름도.3 is a flowchart of visual information recognition in a next-generation personal computer capable of fusing and reproducing five senses information according to the present invention.

도 4는 본 발명에 따른 오감 정보의 융합 및 재현 가능한 차세대 퍼스널 컴퓨터에서의 청각 정보 인식 흐름도.4 is a flow diagram of auditory information recognition in a next-generation personal computer capable of fusing and reproducing the five senses information according to the present invention.

도 5는 본 발명에 따른 오감 정보의 융합 및 재현 가능한 차세대 퍼스널 컴퓨터에서의 후/미각 정보 인식 흐름도.5 is a flow chart of recognition of rear / taste information in a next-generation personal computer capable of fusing and reproducing five senses information according to the present invention.

도 6은 본 발명에 따른 오감 정보의 융합 및 재현 가능한 차세대 퍼스널 컴퓨터에서의 촉각 정보 인식 흐름도.6 is a flow chart of tactile information recognition in a next generation personal computer capable of fusing and reproducing the five senses information according to the present invention.

도 7은 본 발명에 따른 오감 정보의 융합 및 재현 가능한 차세대 퍼스널 컴퓨터를 이용한 분산환경 인식 시스템 구성도.7 is a configuration diagram of a distributed environment recognition system using a next-generation personal computer capable of fusing and reproducing five senses information according to the present invention.

도 8은 본 발명에 따른 오감 정보의 융합 및 재현 가능한 차세대 퍼스널 컴퓨터의 실질적인 이용을 위한 스마트게이트를 포함한 전체 구성도.8 is an overall configuration diagram including a smart gate for the practical use of the next generation personal computer fusion and reproduction of the five senses information according to the present invention.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

100 : 중앙처리장치 110 : 내부연결부100: central processing unit 110: internal connection

120 : 외부연결부 130 : 확장연결부120: external connection 130: expansion connection

140 : 메모리 인터페이스 150 : 멀티미디어 가속기140: memory interface 150: multimedia accelerator

160 : 시스템 제어부 170 : 표준 시스템 입출력부160: system control unit 170: standard system input and output unit

180 : 사용자 인터페이스 190 : 멀티미디어 인터페이스180: user interface 190: multimedia interface

710 : 차세대 퍼스널 컴퓨터 720 : 분산 인식 서버710: next generation personal computer 720: distributed recognition server

730 : 후/미/촉/시/청각 장치730: after / beauty / touch / sight / hearing device

본 발명은 착용식 차세대 퍼스널 컴퓨터에 관한 것으로, 보다 상세하게는 오감 정보의 실감 표현 및 인식이 가능하며 착용이 가능한 오감정보의 융합 및 재현 가능한 차세대 퍼스널 컴퓨터 시스템에 관한 것이다.The present invention relates to a wearable next-generation personal computer, and more particularly, to a next-generation personal computer system capable of expressing and recognizing five senses information and reconciling and reproducing wearable five senses information.

최근 디지털 장치들이 사용자의 간편성을 추구하기 위하여 착용형으로 휴대 가능한 형태를 목표로 각 구성요소들의 소형화 및 경량화를 추구하고 있으며, 이에 대한 다양한 모델들이 개발되고 있으나, 현재 착용 가능한 형태로 오감 정보의 효 율적인 인식 및 실감 표현이 가능한 형태의 플랫폼 구조를 채택한 시스템은 없는 실정이다.Recently, digital devices have been pursuing miniaturization and lightening of each component with the goal of wearable and portable form in order to pursue the convenience of the user, and various models have been developed. There is no system that adopts a platform structure that can express perceptions and feelings.

또한 착용형으로 개발되어진 휴대형 컴퓨터의 경우, 소형화 및 경량화를 위하여 필수 기능의 생략 및 성능의 손실을 감수하고 있는 실정이다. In addition, in the case of a portable computer that is developed as a wearable type, it is a situation where omission of essential functions and loss of performance are required for miniaturization and light weight.

따라서, 필수 기능은 생략하지 않고 우수한 성능을 발휘하면서 착용가능한 형태로서 오감 정보의 인식 및 실감 표현이 가능한 플랫폼 구조를 채택하는 차세대 퍼스널 컴퓨터 시스템의 개발이 요망되고 있는 실정이다.Accordingly, there is a demand for development of a next-generation personal computer system that adopts a platform structure capable of recognizing and expressing the five senses information as a wearable form without exhibiting essential functions.

이에, 본 발명은 상기한 종래 기술의 요구에 부흥하기 위하여 개발된 것으로, 착용식으로 오감 정보의 인식 및 표현이 가능하며 오감정보의 융합 및 재현 가능한 차세대 퍼스널 컴퓨터 시스템을 제공하고자 함에 그 목적이 있다.
Accordingly, the present invention has been developed to meet the above-described demands of the prior art, and has an object of providing a next-generation personal computer system capable of recognizing and expressing the five senses information and wearing and reproducing the five senses information. .

싱기한 목적을 달성하기 위한 본 발명에 따른 착용식 개인 컴퓨터는, 중앙처리부, 메모리, 인터페이스부, 블루투스 모듈을 구비한 착용식 개인 컴퓨터에 있어서, 내부 각 구성요소들 간의 연결을 위한 버스를 제공하는 내부연결부, 외부 장치들과의 연결을 위한 접속을 제공하는 외부연결부, 시스템의 기능을 확장하기 위한 확장연결부, 시스템 상의 멀티미디어 기능을 원활하게 수행하도록 하는 멀티미디어 가속기부, 시스템의 클럭과 디버깅 및 부팅 등을 관장하는 시스템 제어부, 시스템의 표준 입출력을 관장하는 표준시스템 입출력부, 사용자 명령의 입출력 기능을 관장하는 사용자 인터페이스부, 카메라와의 인터페이스를 제공하기 위한 멀티미디어 인터페이스부 및 상기 인터페이스부 중에서 선택된 적어도 어느 하나를 통하여 연결되는 시각/청각/미각/후각/촉각을 인식하거나 사용자에게 전달하는 시각/청각/미각/후각/촉각 인식장치를 포함하고, 상기 시각/청각/미각/후각/촉각 인식장치를 통해 시각/청각/미각/후각/촉각을 인식하거나, 사용자에게 전달하기 위해 필요한 처리의 수행을 상기 블루투스 모듈을 통하여 통신 접속 가능한 서버를 이용하여 분산 처리하는 것을 특징으로 한다. Wearable personal computer according to the present invention for achieving the object, in the wearable personal computer having a central processing unit, a memory, an interface unit, a Bluetooth module, providing a bus for connection between the respective internal components Internal connections, external connections to provide connectivity for external devices, expansion connections to expand the functionality of the system, multimedia accelerators to facilitate multimedia functions on the system, system clocking, debugging and booting, etc. At least one selected from the system control unit for controlling the system, the standard system input and output unit for managing the standard input and output of the system, the user interface unit for controlling the input and output function of the user command, the multimedia interface unit for providing an interface with the camera and the interface unit Vision / blue connected via / Visual / auditory / taste / olfactory / tactile recognition device for recognizing or conveying the taste / smell / sense / sense to the user, and through the visual / auditory / taste / smell / tactile recognition device Characterized in that the sense of touch, or to perform the processing necessary for delivery to the user characterized in that the distributed processing using a server that can communicate through the Bluetooth module.

삭제delete

여기서, 상기 시각 장치로부터의 수집된 화상정보의 인식을 위한 알고리즘으로, 인식을 위한 필요 부분의 윤곽 추출 후, 추출되어진 영상정보의 데이터만을 상기 서버로 전송하여 분산 인식을 수행한다.Here, as an algorithm for recognizing the collected image information from the visual apparatus, after extracting the outline of the necessary portion for recognition, only the extracted data of the image information is transmitted to the server to perform distributed recognition.

또한, 상기 후/미각정보의 인식기능 수행 시, 상기 정해진 후/미각 원소 코드로 부호화 가능하며, 사용자의 목적에 따라 후/미각 원소 코드의 추가 또는 삭제가 가능하며, 후/미각 원소 코드의 추가 또는 삭제에 따른 효율적인 냄새 정보의 분해를 위한 후/미각 센서의 추가 및 삭제, 배열을 달리할 수 있으며, 소프트웨어의 설정을 통한 후/미각 원소의 종류 및 수를 임의로 설정 가능하다.In addition, when performing the recognition function of the after / taste information, can be encoded by the predetermined after / taste element code, it is possible to add or delete the after / taste element code according to the user's purpose, the addition of the after / taste element code Alternatively, the addition / deletion and rearrangement of the after / taste sensor for efficient decomposition of odor information according to the deletion may be varied, and the type and number of the after / taste elements may be arbitrarily set through software setting.

또, 상기 후/미각 부호화된 원소 코드의 경우 상기 컴퓨터 상의 표현기를 통한 적정 원소의 종류 및 배합을 통하여 표현 가능하다. In addition, the post-taste coded element code may be represented by a type and a combination of appropriate elements through the computer presenter.                         

또한, 상기 촉각 장치로 입력되어진 사용자의 손가락 모양, 손동작 등의 신호를 상기 컴퓨터상에 미리 정의 되어진 명령어 세트로 변환하며, 상기 컴퓨터의 단순 조작에서부터 복잡한 형태의 문자 입력까지 표현 가능하다.In addition, a signal of a user's finger shape, hand gesture, etc. input to the haptic device is converted into a predefined command set on the computer, and the computer can express everything from simple manipulation to complex text input.

그리고, 상기 촉각 장치로 입력되어진 정보의 사용자 목적에 따른 부호화를 수행하며, 상기 부호화된 정보는 촉각 표현장치를 이용하여 재현이 가능하다.In addition, encoding is performed according to a user's purpose of the information input to the haptic device, and the encoded information can be reproduced by using the tactile expression device.

또, 상기 착용식 개인 컴퓨터는 손목 시계형 컴퓨터이고, 상기 서버는 벨트 착용식 스마트 게이트인 것이 바람직하다.Preferably, the wearable personal computer is a wrist watch type computer, and the server is a belt wearable smart gate.

삭제delete

이하, 첨부 도면을 참조하여 본 발명에 따른 오감정보의 융합 및 재현 가능한 차세대 퍼스널 컴퓨터 시스템에 대하여 상세히 설명하기로 한다.Hereinafter, with reference to the accompanying drawings will be described in detail with respect to the next generation personal computer system fusion and reproduction of the five senses information according to the present invention.

도 1은 본 발명에 따른 오감 정보의 융합 및 재현 가능한 차세대 퍼스널 컴퓨터(Wearable Personal Station; 이하 "WPS"라 약칭한다)의 기능별 블록도를 도시한 도면이다.1 is a functional block diagram of a next generation personal computer (Wearable Personal Station (hereinafter abbreviated as " WPS ")) capable of fusion and reproducing of the five senses information according to the present invention.

동 도면에서, 중앙처리장치(100)는 본 발명에서 제안하는 차세대 퍼스널 컴퓨터(WPS)의 연산, 제어 등 전체 시스템을 관장하는 역할을 담당하는 것이다. 본 발명의 일 실시예에서는 중앙처리장치로서 ARM 9계열의 코어 프로세서를 내장하는 Motorola사의 i.MX1 또는 i.MX21 칩(도 2 참조)을 사용하고 있다.In the figure, the central processing unit 100 is responsible for managing the entire system, such as operation and control of the next-generation personal computer (WPS) proposed in the present invention. According to an embodiment of the present invention, a Motorola i.MX1 or i.MX21 chip (see FIG. 2) using an ARM 9 series core processor is used as a central processing unit.

그리고, 내부 연결부(110)는 오디오 먹스, I2C, SSI, CSPI 등의 연결을 위한 버스를 제공하는 기능을 담당한다. 또, 외부연결부(120)는 외부 장치들과의 연결을 위하여 UART, USB/Host/OTG, IrDA 등과의 접속을 제공하는 기능을 담당한다.In addition, the internal connection unit 110 is responsible for providing a bus for connection of audio mux, I 2 C, SSI, CSPI, and the like. In addition, the external connection unit 120 is responsible for providing a connection to the UART, USB / Host / OTG, IrDA and the like for connecting to the external devices.

또한, 확장 연결부(130)는 WPS의 기능 확장을 위하여 MMC/SD, PCMCIA/CF 등 을 제공하는 기능을 담당한다. 또, 메모리 인터페이스(150)는 WPS 상의 프로그램 동작 및 제어를 위해 사용되어지는 메모리 할당, 제어, 저장영역 제공 등의 기능을 담당한다.In addition, the expansion connection unit 130 is responsible for providing a function such as MMC / SD, PCMCIA / CF to expand the function of the WPS. In addition, the memory interface 150 is responsible for functions such as memory allocation, control, and storage area, which are used for program operation and control on the WPS.

그리고, 멀티미디어 가속기(150)는 WPS 상에서 멀티미디어 기능 제공을 원활하게 하기 위하여 비디오 처리 가속기, 전처리기, 후처리기 등을 제공한다. 또, 상기 시스템 제어부(160)는 시스템의 클럭, 디버깅, 부팅 등을 관장한다.In addition, the multimedia accelerator 150 provides a video processing accelerator, a preprocessor, a post processor, and the like to facilitate providing multimedia functions on the WPS. In addition, the system controller 160 manages the clock, debugging, booting, and the like of the system.

또한, 표준 시스템 입출력부(170)는 GPIO, RTC 등의 시스템 표준 입출력을 담당한다. 또, 사용자 인터페이스(180)는 예를 들면 LCD와 같은 디스플레이수단과 키패드와 같은 입력수단 등을 제공함으로써 사용자 명령의 입출력 기능을 관장한다.In addition, the standard system input / output unit 170 is responsible for system standard input / output such as GPIO, RTC, and the like. In addition, the user interface 180 manages an input / output function of a user command by providing a display means such as an LCD and an input means such as a keypad.

그리고, 멀티미디어 인터페이스(190)는 본 발명에서 제안하는 WPS와 카메라와의 인터페이스를 제공함으로써 영상의 입출력기능을 담당한다.In addition, the multimedia interface 190 serves as an input / output function of an image by providing an interface between a WPS and a camera proposed in the present invention.

또한, 도1에는 도시하지 않았지만 WPS 상에는 내부연결부(110)와 외부연결부(120)를 활용하여 사용자 입출력을 위한 촉각장치의 연동과, 실감 표현과 인식을 위한 후/미각 인식/표현 장치의 연동 및, HMD(Head Mounted Display)의 연결, 멀티미디어 인터페이스(190)를 통한 시각 인식장치와의 연동도 가능하다.In addition, although not shown in FIG. 1, interlocking of the tactile device for input / output of the user by using the internal connector 110 and the external connector 120 on the WPS, and interworking of the rear / taste recognition / expression apparatus for the expression and recognition The connection of the head mounted display (HMD) and the visual recognition device through the multimedia interface 190 are also possible.

상기 사용자 인터페이스(180)에 예를 들면 HMD를 연결할 경우, 도 1상의 WPS 자체 인터페이스를 사용할 수도 있으며, 또한 도 8에 도시한 스마트 게이트를 경유하는 인터페이스를 경유하는 것도 가능하다. 이와 같이 스마트 게이트를 경유하는 인터페이스를 사용할 경우, WPS와 스마트 게이트 사이의 영상정보 전송은 블루투스 (Bluetooth)를 이용하며,스마트 게이트와 HMD 사이의 인터페이스는 USB, IEEE1394 및 무선 랜, 블루투스 등을 이용한 연결이 가능하다.When the HMD is connected to the user interface 180, for example, the WPS interface shown in FIG. 1 may be used, or it may be via an interface via the smart gate shown in FIG. When using the interface via the smart gate as described above, the image information transmission between the WPS and the smart gate uses Bluetooth, and the interface between the smart gate and the HMD is connected using USB, IEEE1394 and wireless LAN, Bluetooth, etc. This is possible.

다음으로, 도 3을 참조하여 본 발명의 바람직한 실시예에 따른 WPS에서의 시각 정보 인식 흐름에 대하여 상세히 설명한다.Next, the flow of visual information recognition in the WPS according to the preferred embodiment of the present invention will be described in detail with reference to FIG. 3.

먼저, 상기 멀티미디어 인터페이스부(190)를 통해 연결되는 예를 들면 CMOS 이미지 센서(카메라)에 의하여 영상정보가 획득되고(단계 S11), 상기 획득되어 입력되는 영상정보는 실시간 화상 인식을 위하여 도 1에 도시된 멀티미디어 가속기(150)로 전송된다(단계 S12). 일반적인 영상 신호의 경우 데이터 량과 데이터의 처리를 위한 연산능력의 요구사항이 높기 때문에 본 발명의 WPS에서의 시각 인식기능은 분산기능을 활용한다. 또한, 분산인식을 수행하기 위하여 원격지에 설치된 분산인식서버(도 7의 720 참조)로의 데이터 전송은 필수적이며, 화상 정보의 경우 데이터 량이 방대하며, 이의 전송을 위해서는 데이터 전송을 위한 많은 시간을 필요로 한다. 따라서, 데이터 전송 시간의 최소화를 위하여 본 발명에서는 인식에 필요한 부분만의 데이터 추출 후 그 추출된 데이터만을 전송하는 알고리즘을 사용한다. First, image information is acquired by, for example, a CMOS image sensor (camera) connected through the multimedia interface unit 190 (step S11), and the obtained image information is input to FIG. 1 for real-time image recognition. The multimedia accelerator 150 is shown (step S12). In the case of a general video signal, the amount of data and the computational power for processing the data are high, so the visual recognition function in the WPS of the present invention utilizes a dispersion function. In addition, in order to perform distributed recognition, data transmission to a distributed recognition server (refer to 720 of FIG. 7) installed at a remote location is essential, and in case of image information, a large amount of data is required, and a large amount of time is required for data transmission. do. Therefore, in order to minimize the data transmission time, the present invention uses an algorithm for transmitting only the extracted data after extracting only the data necessary for recognition.

상기 멀티미디어 가속기(150)는 전달된 입력 정보 중에서 시각 인식에 필요한 부분(즉, 인식에 필요한 윤곽부분)만을 추출한 후(단계 S13), 인식을 위한 인식 서버로 추출된 영상정보를 상기 외부연결부(120)를 통하여 전송하게 되며(단계 S14), 분산인식서버(도 7의 720 참조)는 전달받은 원화상의 일부 정보만을 이용하여 인식을 수행하게 된다(단계 S15). 그후, 상기 분산인식서버는 인식결과를 WPS의 외부연결부(120)로 전송하게 된다(단계 S16).The multimedia accelerator 150 extracts only a portion (that is, a contour portion necessary for recognition) from the transmitted input information (that is, a contour portion necessary for recognition) (step S13), and then extracts the image information extracted by the recognition server for recognition from the external connection unit 120. In step S14, the distributed recognition server (see 720 of FIG. 7) performs recognition using only some information of the received original image (step S15). Thereafter, the distributed recognition server transmits the recognition result to the external connection unit 120 of the WPS (step S16).

한편, 본 발명에서 제안하는 새로운 개념의 분산 인식은 도 8에 도시된 벨트 착용형태인 스마트 게이트를 이용하여 구현할 수도 있다. 일반적인 분산 인식의 경우 클라이언트 단의 소형화, 경량화를 위하여 클라이언트의 성능 저하를 감수한 후, 별도의 서버를 두어 서버와의 통신을 이용한 연산을 수행하는 것이 관례이며, 서버의 형태는 고정된 형태를 취하고 있다. 본 발명에서 제안하는 분산 인식을 위한 서버의 경우, 클라이언트 단 뿐만이 아니라 서버까지 착용형태로 구현하여 서버와 클라이언트 간의 통신 문제에 따른 분산 인식/재현의 문제점의 소지를 방지하였다.On the other hand, distributed recognition of the new concept proposed in the present invention can also be implemented using a smart gate of the belt wearing form shown in FIG. In general distributed recognition, it is customary to take the performance degradation of the client in order to reduce the size and weight of the client side, and to perform a calculation using the communication with the server by setting up a separate server. have. In the case of the server for distributed recognition proposed in the present invention, not only the client end but also the server may be implemented in a worn form to prevent the problem of distributed recognition / reproduction according to the communication problem between the server and the client.

다음으로, 도 4를 참조하여 본 발명의 바람직한 실시예에 따른 WPS에서의 청각 정보 인식 흐름에 대하여 상세히 설명한다.Next, the flow of auditory information recognition in the WPS according to a preferred embodiment of the present invention will be described in detail with reference to FIG. 4.

상기 사용자 인터페이스부(180)에 연결된 마이크로폰을 통하여 청각정보(음성정보)를 수집하고(단계 S21), 수집된 음성정보를 사용자 인터페이스부(180)를 통해서 멀티미디어 가속기(150)로 전송한다(단계 S22). Auditory information (voice information) is collected through a microphone connected to the user interface unit 180 (step S21), and the collected voice information is transmitted to the multimedia accelerator 150 through the user interface unit 180 (step S22). ).

상기 차세대 휴대용 컴퓨터인 WPS는 음성정보 인식기능을 수행, 사용자 인터페이스를 제공한다. 본 발명에서 제안된 음성정보의 인식기능은 실시간 인식기능 수행을 위해, 분산 환경에서 인식을 수행하게 되며, 상기 멀티미디어 가속기(150)에서는 인식에 필요한 음성정보(즉, 입력된 음성정보의 에너지와 평균잡음을 고려한 음성 구간)만을 추출한 후(단계 S23), 인식을 위한 분산 인식 서버(도 7의 720)로 상기 추출된 음성정보를 상기 외부연결부(120)를 통하여 전송하게 되며(단계 S24), 상기 분산인식서버(도 7의 720 참조)는 전달받은 원 음성의 일부 정보만을 이용하여 인식을 수행하게 된다(단계 S25). 그후, 상기 분산인식서버는 인식결과를 WPS의 외부연결부(120)로 전송하게 된다(단계 S26).The next generation portable computer, WPS, performs a voice information recognition function and provides a user interface. The recognition function of the voice information proposed in the present invention performs recognition in a distributed environment in order to perform a real time recognition function, and the multimedia accelerator 150 requires voice information (that is, energy and average of input voice information) for recognition. After extracting only the voice section in consideration of noise (step S23), the extracted voice information is transmitted to the distributed recognition server (720 of FIG. 7) for recognition through the external connection unit 120 (step S24). The distributed recognition server (see 720 of FIG. 7) performs recognition using only some information of the received original voice (step S25). Thereafter, the distributed recognition server transmits the recognition result to the external connection unit 120 of the WPS (step S26).

다음으로, 도 5를 참조하여 본 발명의 바람직한 실시예에 따른 WPS에서의 후/미각 정보 인식 흐름에 대하여 상세히 설명한다.Next, with reference to Figure 5 will be described in detail with respect to the after / taste information recognition flow in the WPS according to an embodiment of the present invention.

도 1에서 도시한 상기 외부연결부(120)을 통하여 후/미각 센서를 연결하며, 이 후/미각 센서는 상기 제안된 WPS의 제어에 따른 후/미각 인식 기능을 수행한다(단계 S31). 사용자는 사용자 인터페이스부(180)를 통해 연결되어진 마이크로폰을 이용하여 후/미각기능 동작을 요구하게 되며, WPS는 분산기능을 활용한 청각 인식 기능의 결과에 따라 동작하게 된다.The rear / taste sensor is connected through the external connection unit 120 shown in FIG. 1, and the rear / taste sensor performs a rear / taste recognition function according to the control of the proposed WPS (step S31). The user requests the post / taste function using the microphone connected through the user interface unit 180, and the WPS operates according to the result of the auditory recognition function using the distributed function.

상기 본 실시예에서 제안된 후/미각 인식 기능은, 입력되어진 냄새 신호를, 미리 정의 되어진, 기본 원소형태와 유사한 냄새 원소로 분류하여 부호화 하여 사용할 수 있으며, 부호화의 방법 및 부호화에 필요한 냄새 원소의 종류 및 수는 사용자 목적에 따라 추가 또는 삭제가 가능하다. 또한, 후/미각 센서로 입력되어진 냄새 원소의 추출에 용이하도록, 사용자 필요에 따라 후/미각 센서의 교체 및 S/W 설정을 통해 인식해야할 냄새의 종류 및 수를 선정가능하다. 또한 후/미각 원소로 부호화 된 냄새 및 맛의 종류는 후/미각 표현기에 의해, 냄새 원소의 종류 및 각 원소의 적정 농도 배합에 의하여 표현 가능하다(단계 S32).The post / taste recognition function proposed in the present embodiment may classify the input odor signal into a odor element similar to a basic element form, which is predefined, and encode the odor element. Type and number can be added or deleted according to user purpose. In addition, it is possible to select the type and number of odors to be recognized through the replacement of the after / taste sensor and the S / W setting according to the user needs, so as to facilitate the extraction of the odor element input to the after / taste sensor. In addition, the kinds of smells and tastes encoded by the after / taste elements can be expressed by the after / the taste expressor by the kind of the odor elements and the appropriate concentration combination of each element (step S32).

상기 WPS의 중앙처리장치(100)는 상기 외부연결부(120)을 통하여 연결된 후/미각 센서를 통하여 후/미각 정보를 수집하고(단계 S33), 실시간 인식기능 수행할 목적으로 분산 환경에서 인식을 수행하기 위하여 분산 인식 서버(도 7의 720)로 상 기 수집된 후/미각 정보를 상기 외부연결부(120)를 통하여 전송하게 된다(단계 S34), 상기 분산인식서버(도 7의 720 참조)는 전달받은 후/미각 정보를 이용하여 인식을 수행하게 된다(단계 S35). 그후, 상기 분산인식서버는 인식결과를 WPS의 외부연결부(120)로 전송함에 따라 WPS의 중앙처리장치(100)는 인식결과를 수신하게 된다(단계 S36).The central processing unit 100 of the WPS collects the after / taste information through the after / taste sensor connected through the external connection unit 120 (step S33), perform the recognition in a distributed environment for the purpose of performing a real-time recognition function In order to transmit the taste information to the distributed recognition server (720 of Fig. 7) through the external connection unit 120 (step S34), the distributed recognition server (see 720 of Fig. 7) is transferred to After receiving / recognition using the taste information (step S35). Thereafter, the distributed recognition server transmits the recognition result to the external connection unit 120 of the WPS, so that the WPS central processing unit 100 receives the recognition result (step S36).

다음으로, 도 6를 참조하여 본 발명의 바람직한 실시예에 따른 WPS에서의 촉각 정보 인식 흐름에 대하여 상세히 설명한다.Next, the tactile information recognition flow in the WPS according to the preferred embodiment of the present invention will be described in detail with reference to FIG. 6.

상기 도 1에서 도시되어진 상기 외부연결부(120)을 통하여 장갑장치와 같은 형태의 촉각 장치와의 연동이 가능하며, 이 촉각 장치는 상기 제안된 WPS의 제어에 따라 촉각 인식 기능을 수행한다. 사용자는 착용한 촉각장치를 자연스럽게 움직임으로써(손가락의 구부림, 손의 이동 등), 자신의 의도에 따른 사용자 입력기능을 수행할 수 있다(단계 S42). 또한, 입력 되어진 사용자 손동작들은 일련의 부호화 과정을 통하여, 휴대형 컴퓨터의 단순한 조작에서부터, 미리 정해진 부호화 방식에 따라 컴퓨터의 키보드와 같은 문자의 입력기능을 수행한다. 촉각 정보의 인식기능은 상기 제안된 WPS의 중앙처리장치(100)에서 수행한다(단계 S43). 또한, 사용자의 입력 신호는 장갑장치와 같은 외부 촉각 장치의 기능을 이용하여, 사용자의 의도에 따라 세기, 방향, 질감 등의 촉각 기본 성질을 내재하며, 이러한 촉각 기본 성질을 이용하여, 사용자의 목적에 따른 부호화를 수행한다. 부호화된 촉각 정보는, 촉각 표현 장치를 이용하여, 질감 등의 촉각 기본 성질을 표현 가능하도록 한다.The external connection part 120 shown in FIG. 1 enables interworking with a haptic device, such as a glove device, which performs a tactile recognition function under the control of the proposed WPS. The user can perform a user input function according to his or her intention by naturally moving the worn tactile device (bending a finger, moving a hand, etc.) (step S42). In addition, the input user's hand gestures perform a function of inputting a character such as a keyboard of a computer according to a predetermined encoding method from a simple operation of a portable computer through a series of encoding processes. Recognition function of the tactile information is performed by the central processing unit 100 of the proposed WPS (step S43). In addition, the user's input signal has a tactile basic property such as intensity, direction, and texture according to the user's intention by using a function of an external haptic device such as an armored device, and by using the tactile basic property, Perform encoding according to The coded tactile information is capable of expressing tactile basic properties such as texture using a tactile expression device.

이와 같이 중앙처리장치(100)에서 인식한 촉각의 인식결과는 시스템 제어부(160)로 전송되고(단계 S44), 상기 시스템 제어부(160)는 상기 촉각 인식결과에 따라 장치의 제어를 수행하게 된다(단계 S45).In this way, the recognition result of the tactile sense recognized by the central processing unit 100 is transmitted to the system control unit 160 (step S44), and the system control unit 160 performs the control of the device according to the tactile recognition result ( Step S45).

상기에서 제안한 분산환경의 인식 시스템 구축을 위하여, 본 발명의 바람직한 실시예에서는 도 7에 도시한 바와 같이 블루투스를 활용한 무선통신 시스템을 구현하였다. 외부 연결부(120) 또는 확장연결부(130)을 통해 연동되어진 불르투스 RF 모듈은 상기 제안된 차세대 휴대용 컴퓨터인 WPS의 중앙처리장치(100) 및 시스템제어부(160)의 지시에 따라 분산 환경의 인식서버(720)와 통신기능을 수행하게 된다. In order to construct a distributed system recognition system, the preferred embodiment of the present invention implements a wireless communication system using Bluetooth as shown in FIG. 7. The Bluetooth RF module interworked through the external connection unit 120 or the expansion connection unit 130 is a server for the distributed environment according to the instructions of the central processing unit 100 and the system control unit 160 of the proposed next-generation portable computer WPS ( 720) and a communication function.

한편, 도1에서 도시한 중앙처리장치(100)는 도 2에서 도시되어진 내 외부 디바이스와의 직접적인 연동이 가능하며, 각각의 장치들은 필요에 따라 외부의 다른 장치(오감 정보의 표현 및 인식 장치)들과 연동 되어질 수 있다. On the other hand, the central processing unit 100 shown in FIG. 1 is capable of directly interworking with the internal and external devices shown in FIG. 2, and each of the devices is an external device (representation and recognition device of five sense information) as needed. Can be linked with

또한 본 발명에서 제안하는 WPS의 소프트웨어 및 하드웨어의 상세 스펙은 다 음과 같다.In addition, the detailed specifications of the software and hardware of the WPS proposed in the present invention are as follows.

Figure 112004052310458-pat00001
Figure 112004052310458-pat00001

Figure 112004052310458-pat00002
Figure 112004052310458-pat00002

한편, 본 발명은 상기한 특정 실시예에 한정되는 것이 아니라, 본 발명의 요지를 벗어나지 않는 범위내에서 여러가지로 변형 및 수정하여 실시할 수 있는 것이다.In addition, this invention is not limited to the above-mentioned specific Example, It can variously deform and modify in the range which does not deviate from the summary of this invention, and can be implemented.

본 발명에 의하면, WPS를 통한 5감 정보의 실감 표현 및 인식이 가능해지고, 사용자 편의를 위한 다양한 형태의 사용자 인터페이스 제공이 가능해진다.According to the present invention, the sensory expression and recognition of the five senses information can be realized through the WPS, and various types of user interfaces for user convenience can be provided.

Claims (19)

중앙처리부, 메모리, 인터페이스부, 블루투스 모듈을 구비한 착용식 개인 컴퓨터에 있어서, In the wearable personal computer having a central processing unit, a memory, an interface unit, and a Bluetooth module, 내부 각 구성요소들 간의 연결을 위한 버스를 제공하는 내부연결부,Internal connections that provide a bus for connection between each internal component, 외부 장치들과의 연결을 위한 접속을 제공하는 외부연결부, An external connection providing a connection for connection with external devices, 시스템의 기능을 확장하기 위한 확장연결부, Expansion connections for extending the functionality of the system, 시스템 상의 멀티미디어 기능을 원활하게 수행하도록 하는 멀티미디어 가속기부, Multimedia accelerator unit for smoothly performing multimedia functions on the system, 시스템의 클럭과 디버깅 및 부팅 등을 관장하는 시스템 제어부, System controls that control the clocking, debugging, and booting of the system, 시스템의 표준 입출력을 관장하는 표준시스템 입출력부, Standard system input / output unit that manages the standard input and output of the system, 사용자 명령의 입출력 기능을 관장하는 사용자 인터페이스부, A user interface that manages the input / output function of a user command, 카메라와의 인터페이스를 제공하기 위한 멀티미디어 인터페이스부 및 Multimedia interface unit for providing an interface with the camera and 상기 인터페이스부 중에서 선택된 적어도 어느 하나를 통하여 연결되는 시각/청각/미각/후각/촉각을 인식하거나 사용자에게 전달하는 시각/청각/미각/후각/촉각 인식장치를 포함하고, It includes a visual / auditory / taste / olfactory / tactile recognition device for recognizing or transmitting the visual / auditory / taste / olfactory / tactile sense connected to at least one selected from the interface unit, 상기 시각/청각/미각/후각/촉각 인식장치를 통해 시각/청각/미각/후각/촉각을 인식하거나, 사용자에게 전달하기 위해 필요한 처리의 수행을 상기 블루투스 모듈을 통하여 통신 접속 가능한 서버를 이용하여 분산 처리하는 것을 특징으로 하는 착용식 개인 컴퓨터.Recognize the visual / audio / taste / olfactory / tactile senses through the visual / audio / taste / olfactory / tactile recognition device or perform a process necessary for transmitting to the user by using a server that can be communicatively connected through the Bluetooth module. Wearable personal computer, characterized in that the processing. 삭제delete 삭제delete 제 1항에 있어서,The method of claim 1, 상기 시각 장치로부터의 수집된 화상정보의 인식을 위한 알고리즘으로, 인식을 위한 필요 부분의 윤곽 추출 후, 추출되어진 영상정보의 데이터만을 상기 서버로 전송하여 분산 인식을 수행하는 것을 특징으로 하는 착용식 개인 컴퓨터.Wearable individual characterized in that the algorithm for recognizing the collected image information from the visual device, after extracting the contour of the necessary portion for recognition, and transmitting only the data of the extracted image information to the server to perform distributed recognition computer. 제 1항에 있어서,The method of claim 1, 상기 후/미각정보의 인식기능 수행 시, 상기 정해진 후/미각 원소 코드로 부호화 가능하며, 사용자의 목적에 따라 후/미각 원소 코드의 추가 또는 삭제가 가능하며, 후/미각 원소 코드의 추가 또는 삭제에 따른 효율적인 냄새 정보의 분해를 위한 후/미각 센서의 추가 및 삭제, 배열을 달리할 수 있으며, 소프트웨어의 설정을 통한 후/미각 원소의 종류 및 수를 임의로 설정 가능한 것을 특징으로 하는 착용식 개인 컴퓨터.When performing the recognition function of the after / taste information, it is possible to encode the predetermined after / taste element code, the addition or deletion of the after / taste element code according to the user's purpose, the addition or deletion of the after / taste element code Wearable personal computer, characterized in that the addition / deletion of the after / taste sensor for the efficient decomposition of odor information according to the, and the arrangement can be changed, and the type and number of the after / taste elements can be arbitrarily set through the setting of the software . 제 5항에 있어서,The method of claim 5, 상기 후/미각 부호화된 원소 코드의 경우 상기 컴퓨터 상의 표현기를 통한 적정 원소의 종류 및 배합을 통하여 표현 가능한 것을 특징으로 하는 착용식 개인 컴퓨터.The wearable personal computer of the post-taste coded element code may be represented by a type and a combination of appropriate elements through a presenter on the computer. 제 1항에 있어서, The method of claim 1, 상기 촉각 장치로 입력되어진 사용자의 손가락 모양, 손동작 등의 신호를 상기 컴퓨터상에 미리 정의 되어진 명령어 세트로 변환하며, 상기 컴퓨터의 단순 조작에서부터 복잡한 형태의 문자 입력까지 표현 가능한 것을 특징으로 하는 착용식 개인 컴퓨터.The wearable individual, which converts a signal of a user's finger shape, hand gesture, etc. inputted into the haptic device into a predefined command set on the computer, and can express a simple character input to a complex text input. computer. 제 1항에 있어서,The method of claim 1, 상기 촉각 장치로 입력되어진 정보의 사용자 목적에 따른 부호화를 수행하며, 상기 부호화된 정보는 촉각 표현장치를 이용하여 재현이 가능함을 특징으로 하는 착용식 개인 컴퓨터.Wearing personal computer characterized in that for performing the encoding according to the user purpose of the information input to the haptic device, the encoded information can be reproduced by using the tactile expression device. 제 1항에 있어서,The method of claim 1, 상기 착용식 개인 컴퓨터는 손목 시계형 컴퓨터이고, 상기 분산 인식 및 표현을 위한 서버는 스마트게이트를 통해 상기 손목 시계형 컴퓨터와 통신이 가능하고 벨트식 휴대가 가능한 서버인 것을 특징으로 하는 착용식 개인 컴퓨터.The wearable personal computer is a wrist watch type computer, and the server for distributed recognition and expression is a wearable personal computer, which is capable of communicating with the wrist watch type computer and carrying a belt through a smart gate. . 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020040091879A 2004-11-11 2004-11-11 Personal Computer System Suitable To Integration and Representation Five Senses KR100806370B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020040091879A KR100806370B1 (en) 2004-11-11 2004-11-11 Personal Computer System Suitable To Integration and Representation Five Senses

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040091879A KR100806370B1 (en) 2004-11-11 2004-11-11 Personal Computer System Suitable To Integration and Representation Five Senses

Publications (2)

Publication Number Publication Date
KR20060044081A KR20060044081A (en) 2006-05-16
KR100806370B1 true KR100806370B1 (en) 2008-02-27

Family

ID=37148937

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040091879A KR100806370B1 (en) 2004-11-11 2004-11-11 Personal Computer System Suitable To Integration and Representation Five Senses

Country Status (1)

Country Link
KR (1) KR100806370B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080029676A (en) * 2006-09-29 2008-04-03 한국전자통신연구원 Apparatus for providing sensing information
WO2008069529A1 (en) * 2006-12-04 2008-06-12 Electronics And Telecommunications Research Institute Apparatus and method for encoding the five senses information, system and method for providing realistic service using five senses integration interface
KR100835297B1 (en) * 2007-03-02 2008-06-05 광주과학기술원 Node structure for representing tactile information, method and system for transmitting tactile information using the same
KR101485847B1 (en) * 2007-06-29 2015-01-23 삼성전자 주식회사 Apparatus and System for reproducing sensitivity information

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6285757B1 (en) 1997-11-07 2001-09-04 Via, Inc. Interactive devices and methods
US6527711B1 (en) 1999-10-18 2003-03-04 Bodymedia, Inc. Wearable human physiological data sensors and reporting system therefor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6285757B1 (en) 1997-11-07 2001-09-04 Via, Inc. Interactive devices and methods
US6527711B1 (en) 1999-10-18 2003-03-04 Bodymedia, Inc. Wearable human physiological data sensors and reporting system therefor

Also Published As

Publication number Publication date
KR20060044081A (en) 2006-05-16

Similar Documents

Publication Publication Date Title
JP7090971B2 (en) Image fusion method, model training method, image fusion device, model training device, terminal device, server device, and computer program
KR101942444B1 (en) System for remote art mental state counselling
CN111357014B (en) AI model development method and device
CN107832784B (en) Image beautifying method and mobile terminal
CN105979035A (en) AR image processing method and device as well as intelligent terminal
CN106297786A (en) A kind of phonetic function remote control open method and device
WO2021115424A1 (en) Voice payment method and electronic device
CN114242037A (en) Virtual character generation method and device
CN106178496B (en) Game control method and system based on motion sensing and sound operation
CN110559645A (en) Application operation method and electronic equipment
KR100806370B1 (en) Personal Computer System Suitable To Integration and Representation Five Senses
CN111651742A (en) Method, electronic equipment and system for verifying user identity
EP3444749A2 (en) Method for controlling unlocking and related products
CN108763350A (en) Text data processing method, device, storage medium and terminal
CN106527678A (en) Social interaction equipment of mixed reality, system and head-mounted display equipment
WO2020062998A1 (en) Image processing method, storage medium, and electronic device
CN109074144A (en) Modular power delivery technique for electronic equipment
KR100686076B1 (en) Wireless Communication Terminal with Message Transmission According to Feeling of Terminal-User and Method of Message Transmission Using Same
CN112819084A (en) Method and device for determining target sleep information
US20190265753A1 (en) Interactive Multimedia Assistant Device with a Swappable Personality Customizable Skin
KR20210032159A (en) Human emotional expression tools on the basis of wireless communication system
WO2016131325A1 (en) Method and system for achieving wireless connection
KR20120037712A (en) Imaginary beauty experience service system and method
CN105843676B (en) Electronic system and operating system switching method
CN115083401A (en) Voice control method and device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
N231 Notification of change of applicant
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Publication of correction
LAPS Lapse due to unpaid annual fee