KR20110076426A - 로봇의 터치 센서 시스템 - Google Patents

로봇의 터치 센서 시스템 Download PDF

Info

Publication number
KR20110076426A
KR20110076426A KR1020090133128A KR20090133128A KR20110076426A KR 20110076426 A KR20110076426 A KR 20110076426A KR 1020090133128 A KR1020090133128 A KR 1020090133128A KR 20090133128 A KR20090133128 A KR 20090133128A KR 20110076426 A KR20110076426 A KR 20110076426A
Authority
KR
South Korea
Prior art keywords
robot
touch sensor
touch
controller
sensor module
Prior art date
Application number
KR1020090133128A
Other languages
English (en)
Inventor
이덕연
이동욱
이호길
박현섭
손웅희
Original Assignee
한국생산기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국생산기술연구원 filed Critical 한국생산기술연구원
Priority to KR1020090133128A priority Critical patent/KR20110076426A/ko
Publication of KR20110076426A publication Critical patent/KR20110076426A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 로봇의 터치 센서 시스템에 관한 것으로서, 로봇의 얼굴의 소정 부위에 설치되며, 외부 물체에 의한 터치를 감지하여 각 단위 터치 패드로부터 각각 상응하는 감지 데이터값을 출력하는 터치 센서 모듈; 터치 센서 모듈에 의해 출력된 감지 데이터를 수신하고, 그것을 바탕으로 터치 센서 모듈에 의해 감지된 터치가 누르는 동작인지 아니면 쓰다듬는 동작인지의 동작 패턴을 인식하는 처리를 수행하며, 처리된 결과를 상위 장치로 전송하고, 상위 장치로부터 응답 신호를 수신하여 하위 장치로 전달하는 컨트롤러; 및 컨트롤러로부터 전송받은 데이터를 분석하여 로봇에 어떤 행동이 들어왔는지를 분석하고, 그 분석 결과에 따라 로봇이 행해야 할 행동 패턴을 선정하여 그에 상응하는 제어 명령신호를 상기 컨트롤러로 전송하는 호스트 프로세서를 포함한다.
이와 같은 본 발명에 의하면, 사람의 피부와 유사한 재질인 실리콘에서 반응할 수 있고, 실리콘의 다양한 두께까지 터치가 가능하며, 유연한 PCB를 적용하여 로봇의 다양한 곡면에서도 터치 기능을 수행할 수 있어 로봇과 인간과의 상호 교감을 한층 원활하게, 그리고 다양하게 수행할 수 있다.
안드로이드, 로봇, 터치, 센서, 컨트롤러, 프로세서, 피부, 실리콘

Description

로봇의 터치 센서 시스템{Touch sensor system for a robot}
본 발명은 로봇의 터치 센서 시스템에 관한 것으로서, 특히 사람의 피부와 유사한 재질인 실리콘에서 반응할 수 있고, 실리콘의 다양한 두께까지 터치가 가능하며, 유연한 PCB를 적용하여 로봇의 다양한 곡면에서도 터치 기능을 수행할 수 있는 로봇의 터치 센서 시스템에 관한 것이다.
터치를 이용한 기술은 모바일 기기등 사람 손에 자주 접촉되는 기기에 많이 적용되어 왔다. 이 기술은 일반 로봇에 적용되기도 하였지만 대부분 아크릴 위에 터치 센서가 노출되는 상태로 되어 있었다. 하지만 안드로이드(android) 로봇의 경우에는 피부가 실리콘 재질로 되어 있어 피부 밖으로 터치 패드가 노출될 수 있는 상황이 아니며, 피부 두께도 10mm가 넘는 경우가 있어 기존의 터치 기술로서는 적용하기가 어려운 부분이 있다. 또한, 안드로이드 로봇의 경우, 곡면이 있어 기존의 PCB 형식으로 적용할 시 피부의 움직임을 보장할 수가 없는 문제점이 있다.
본 발명은 이상과 같은 종래 터치 기술의 적용상의 문제점을 감안하여 창출 된 것으로서, 사람의 피부와 유사한 재질인 실리콘에서 반응할 수 있고, 실리콘의 다양한 두께까지 터치가 가능하며, 유연한 PCB를 적용하여 로봇의 다양한 곡면에서도 터치 기능을 수행할 수 있는 로봇의 터치 센서 시스템을 제공함에 그 목적이 있다.
상기의 목적을 달성하기 위하여 본 발명에 따른 로봇의 터치 센서 시스템은,
로봇의 얼굴의 소정 부위에 설치되며, 외부 물체에 의한 터치를 감지하여 각 단위 터치 패드로부터 각각 상응하는 감지 데이터값을 출력하는 터치 센서 모듈;
상기 로봇의 머리의 내부에 상기 터치 센서 모듈과 전기적으로 접속되도록 설치되며, 상기 터치 센서 모듈에 의해 출력된 감지 데이터를 수신하고, 그것을 바탕으로 상기 터치 센서 모듈에 의해 감지된 터치가 누르는 동작인지 아니면 쓰다듬는 동작인지의 동작 패턴을 인식하는 처리를 수행하며, 처리된 결과를 상위 장치로 전송하고, 상위 장치로부터 응답 신호를 수신하여 하위 장치로 전달하는 컨트롤러; 및
상기 로봇의 몸체 부위에 상기 컨트롤러와 전기적으로 접속되도록 설치되며, 상기 컨트롤러로부터 전송받은 데이터를 분석하여 로봇에 어떤 행동이 들어왔는지를 분석하고, 그 분석 결과에 따라 로봇이 행해야 할 행동 패턴을 선정하여 그에 상응하는 제어 명령신호를 상기 컨트롤러로 전송하는 호스트 프로세서를 포함하는 점에 그 특징이 있다.
여기서, 상기 터치 센서 모듈은 로봇의 얼굴의 이마와 양쪽 볼에 적어도 한 개씩 각각 설치된다.
그리고, 상기 터치 센서 모듈은 실리콘 피부층 아래에 설치된다.
또한, 상기 터치 센서 모듈은 다수의 단위 터치 패드로 구성된다.
또한, 상기 각 단위 터치 패드는 8 비트(bit)의 데이터를 출력하고, 각 데이터는 0∼255의 값을 갖는다.
또한, 상기 컨트롤러는 상기 터치 센서 모듈의 각 단위 터치 패드로부터 출력된 데이터가 특정값을 가지며 0.5초 이내에 주변의 단위 터치 패드의 데이터 변화량이 30% 이하일 경우에는 누르는 동작으로, 30% 이상일 경우에는 쓰다듬는 동작으로 각각 인식하는 처리를 수행한다.
또한, 상기 호스트 프로세서에 의해 선정되는 상기 로봇이 행해야 할 행동 패턴은 사운드, 모션을 포함할 수 있다.
이와 같은 본 발명에 의하면, 사람의 피부와 유사한 재질인 실리콘에서 반응할 수 있고, 실리콘의 다양한 두께까지 터치가 가능하며, 유연한 PCB를 적용하여 로봇의 다양한 곡면에서도 터치 기능을 수행할 수 있어 로봇과 인간과의 상호 교감을 한층 원활하게, 그리고 다양하게 수행할 수 있다.
이하 첨부된 도면을 참조하면서 본 발명의 실시예를 상세히 설명한다.
도 1 및 도 2는 본 발명에 따른 로봇의 터치 센서 시스템을 나타낸 것으로서, 도 1은 시스템의 전체적인 구성을 개요적으로 보여주는 블록도이고, 도 2는 시 스템이 로봇에 설치된 상태를 보여주는 도면이다.
도 1 및 도 2를 참조하면, 본 발명에 따른 로봇의 터치 센서 시스템은 터치 센서 모듈(110), 컨트롤러(120), 호스트 프로세서(130)를 포함한다.
상기 터치 센서 모듈(110)은 로봇의 얼굴의 소정 부위에 설치되며, 외부 물체(예를 들면, 사람의 손)에 의한 터치를 감지하여 각 단위 터치 패드로부터 각각 상응하는 감지 데이터값을 출력한다. 여기서, 이와 같은 터치 센서 모듈(110)은 도 3에 도시된 바와 같이, 로봇의 얼굴의 이마(편의상 이 이마에 설치된 터치 센서 모듈을 참조부호 110a로 표기함)와 양쪽 볼(편의상 이 양쪽 볼에 설치된 터치 센서 모듈을 참조부호 110b로 표기함)에 적어도 한 개씩 각각 설치된다. 그리고, 상기 터치 센서 모듈(110)은 도 4에 도시된 바와 같이, 로봇의 실리콘 피부층(401) 아래에 설치된다. 또한, 상기 터치 센서 모듈(110)(110a,110b)(이하에서는 터치 센서 모듈은 110a,110b로 표기함)은 도 5에 도시된 바와 같이, 다수의 단위 터치 패드 (110u)로 구성된다. 또한, 상기 각 단위 터치 패드(110u)는 8 비트(bit)의 데이터를 출력하고, 각 데이터는 0∼255의 값을 갖는다.
상기 컨트롤러(120)는 상기 로봇의 머리의 내부에 상기 터치 센서 모듈 (110a,110b)과 전기적으로 접속되도록 설치되며(도 2 참조), 상기 터치 센서 모듈(110a,110b)에 의해 출력된 감지 데이터를 수신하고, 그것을 바탕으로 상기 터치 센서 모듈(110a,110b)에 의해 감지된 터치가 누르는 동작인지 아니면 쓰다듬는 동작인지의 동작 패턴을 인식하는 처리를 수행하며, 처리된 결과를 상위 장치(즉, 후술되는 호스트 프로세서)로 전송하고, 상위 장치로부터 응답 신호를 수신하여 하위 장치(본 실시예에는 상세히 도시되지는 않았지만, 예를 들면 로봇의 피부를 움직이도록 하는 피부 구동장치)로 전달한다. 여기서, 이와 같은 컨트롤러(120)는 상기 터치 센서 모듈(110a,110b)의 각 단위 터치 패드(110u)로부터 출력된 데이터가 특정값을 가지며 0.5초 이내에 주변의 단위 터치 패드(110u)의 데이터 변화량이 30% 이하일 경우에는 누르는 동작으로, 30% 이상일 경우에는 쓰다듬는 동작으로 각각 인식하는 처리를 수행한다. 여기서, 이와 같이 30%를 판단의 기준으로 삼는 것은 단위 터치 패드(110u)의 오차 및 주변 환경으로 인한 오차를 고려한 것이다.
또한, 상기 터치 센서 모듈(110a,110b)과 컨트롤러(120) 간의 통신 수단으로I2C(Inter-IC) 버스 또는 SPI(Serial Peripheral Interface)가 사용될 수 있다.
상기 호스트 프로세서(130)는 상기 로봇의 몸체 부위에 상기 컨트롤러(120)와 전기적으로 접속되도록 설치되며, 상기 컨트롤러(120)로부터 전송받은 데이터를 분석하여 로봇에 어떤 행동이 들어왔는지를 분석하고, 그 분석 결과에 따라 로봇이 행해야 할 행동 패턴을 선정하여 그에 상응하는 제어 명령신호를 상기 컨트롤러 (120)로 전송한다. 여기서, 이와 같은 호스트 프로세서(130)에 의해 선정되는 상기 로봇이 행해야 할 행동 패턴은 본 발명의 시스템 설계자에 의해 미리 다양한 형태로 설정되어 호스트 프로세서의 메모리(미도시)에 저장되며, 그와 같은 행동 패턴은 사운드, 모션을 포함할 수 있다. 또한, 상기 컨트롤러(120)와 상기 호스트 프로세서 간의 통신 수단으로 CAN(Controller Area Network), UART(Universal Asynchronous Receiver/Transmitter), USB(Universal Serial Bus) 중의 하나가 사용될 수 있다.
그러면, 이상과 같은 구성을 갖는 본 발명에 따른 로봇의 터치 센서 시스템의 동작에 대해 간략히 설명해 보기로 한다.
사람이 예를 들면, 로봇의 볼(한쪽 볼 또는 양쪽 볼)이나 이마를 손으로 쓰다듬거나 누르는 동작을 하면, 로봇의 볼 및 이마에 설치되어 있는 터치 센서 모듈 (110a)(110b)은 이를 감지하고 신호를 인식하여 컨트롤러(120)로 각 단위 터치 패드(110u)의 출력값을 전달한다. 이때, 각 단위 터치 패드(110u)는 사람의 손의 터치의 강도에 따라 0∼255 범위 내의 데이터 값을 출력한다.
컨트롤러(120)는 상기 터치 센서 모듈(110a,110b)에 의해 출력된 데이터를 수신하고, 그것을 바탕으로 상기 터치 센서 모듈(110a,110b)에 의해 감지된 터치가 누르는 동작인지 아니면 쓰다듬는 동작인지의 동작 패턴을 인식하는 처리를 수행하며, 처리된 결과를 호스트 프로세서(130)로 전송한다. 이때, 컨트롤러(120)는 상기 터치 센서 모듈(110a,110b)의 각 단위 터치 패드(110u)로부터 출력된 데이터가 특정값을 가지며 0.5초 이내에 주변의 단위 터치 패드(110u)의 데이터 변화량이 30% 이하일 경우에는 누르는 동작으로, 30% 이상일 경우에는 쓰다듬는 동작으로 각각 인식하는 처리를 수행한다.
이렇게 하여, 컨트롤러(120)로부터 호스트 프로세서(130)로 데이터 전송이 이루어지면, 호스트 프로세서(130)는 상기 컨트롤러(120)로부터 전송받은 데이터를 분석하여 로봇에 어떤 행동이 들어왔는지를 분석하고, 그 분석 결과에 따라 로봇이 행해야 할 행동 패턴을 선정하여 그에 상응하는 제어 명령신호를 상기 컨트롤러 (120)로 전송한다. 그러면, 컨트롤러(120)는 그 명령신호를 수신하여 하위 장치(본 실시예에는 상세히 도시되지는 않았지만, 예를 들면 로봇의 피부를 움직이도록 하는 피부 구동장치)로 전달한다. 이에 따라 최종적으로 로봇은 사운드나 모션 등으로 표현하게 된다. 이상과 같은 일련의 과정을 반복함으로써 사람과 로봇이 상호작용(interaction)을 할 수 있게 된다.
이상의 설명에서와 같이, 본 발명에 따른 로봇의 터치 센서 시스템은 로봇의 실리콘 피부층 아래에 터치 센서 모듈이 설치되므로, 사람의 피부와 유사한 재질인 실리콘에서 반응할 수 있고, 실리콘의 다양한 두께까지 터치가 가능하며, 유연한 PCB를 적용하여 로봇의 다양한 곡면에서도 터치 기능을 수행할 수 있다. 따라서, 로봇과 인간과의 상호 교감을 한층 원활하게, 그리고 다양하게 수행할 수 있도록 하는 효과가 있다.
이상, 바람직한 실시예를 통하여 본 발명에 관하여 상세히 설명하였으나, 본 발명은 이에 한정되는 것은 아니며, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양하게 변경, 응용될 수 있음은 당업자에게 자명하다. 따라서, 본 발명의 진정한 보호 범위는 다음의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술적 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.
도 1은 본 발명에 따른 로봇의 터치 센서 시스템의 전체적인 구성을 개요적으로 보여주는 블록도.
도 2는 본 발명에 따른 로봇의 터치 센서 시스템이 로봇에 설치된 상태를 보여주는 도면.
도 3은 본 발명에 따른 로봇의 터치 센서 시스템의 터치 센서 모듈이 로봇의 얼굴의 이마와 양볼에 각각 설치된 상태를 보여주는 도면.
도 4는 본 발명에 따른 로봇의 터치 센서 시스템의 터치 센서 모듈이 로봇의 실리콘 피부층 아래에 설치된 상태를 보여주는 도면.
도 5는 본 발명에 따른 로봇의 터치 센서 시스템의 터치 센서 모듈이 다수의 단위 터치 패드로 구성된 것을 보여주는 도면.
<도면의 주요 부분에 대한 부호의 설명>
110,110a,110b...터치 센서 모듈 120...컨트롤러
130...호스트 프로세서 401...실리콘 피부층
110u...단위 터치 패드

Claims (6)

  1. 로봇의 얼굴의 소정 부위에 설치되며, 외부 물체에 의한 터치를 감지하여 각 단위 터치 패드로부터 각각 상응하는 감지 데이터값을 출력하는 터치 센서 모듈;
    상기 로봇의 머리의 내부에 상기 터치 센서 모듈과 전기적으로 접속되도록 설치되며, 상기 터치 센서 모듈에 의해 출력된 감지 데이터를 수신하고, 그것을 바탕으로 상기 터치 센서 모듈에 의해 감지된 터치가 누르는 동작인지 아니면 쓰다듬는 동작인지의 동작 패턴을 인식하는 처리를 수행하며, 처리된 결과를 상위 장치로 전송하고, 상위 장치로부터 응답 신호를 수신하여 하위 장치로 전달하는 컨트롤러; 및
    상기 로봇의 몸체 부위에 상기 컨트롤러와 전기적으로 접속되도록 설치되며, 상기 컨트롤러로부터 전송받은 데이터를 분석하여 로봇에 어떤 행동이 들어왔는지를 분석하고, 그 분석 결과에 따라 로봇이 행해야 할 행동 패턴을 선정하여 그에 상응하는 제어 명령신호를 상기 컨트롤러로 전송하는 호스트 프로세서를 포함하는 것을 특징으로 하는 로봇의 터치 센서 시스템.
  2. 제1항에 있어서,
    상기 터치 센서 모듈은 로봇의 얼굴의 이마와 양쪽 볼에 적어도 한 개씩 각각 설치되는 것을 특징으로 하는 로봇의 터치 센서 시스템.
  3. 제1항에 있어서,
    상기 터치 센서 모듈은 실리콘 피부층 아래에 설치되는 것을 특징으로 하는 로봇의 터치 센서 시스템.
  4. 제1항에 있어서,
    상기 터치 센서 모듈은 다수의 단위 터치 패드로 구성되는 것을 특징으로 하는 로봇의 터치 센서 시스템.
  5. 제1항에 있어서,
    상기 호스트 프로세서에 의해 선정되는 상기 로봇이 행해야 할 행동 패턴은 사운드, 모션을 포함하는 것을 특징으로 하는 로봇의 터치 센서 시스템.
  6. 제1항에 있어서,
    상기 컨트롤러와 상기 호스트 프로세서 간의 통신 수단으로 CAN(Controller Area Network), UART(Universal Asynchronous Receiver/Transmitter), USB (Universal Serial Bus) 중의 하나가 사용되는 것을 특징으로 하는 로봇의 터치 센서 시스템.
KR1020090133128A 2009-12-29 2009-12-29 로봇의 터치 센서 시스템 KR20110076426A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090133128A KR20110076426A (ko) 2009-12-29 2009-12-29 로봇의 터치 센서 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090133128A KR20110076426A (ko) 2009-12-29 2009-12-29 로봇의 터치 센서 시스템

Publications (1)

Publication Number Publication Date
KR20110076426A true KR20110076426A (ko) 2011-07-06

Family

ID=44916327

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090133128A KR20110076426A (ko) 2009-12-29 2009-12-29 로봇의 터치 센서 시스템

Country Status (1)

Country Link
KR (1) KR20110076426A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020235821A1 (en) * 2019-05-23 2020-11-26 Samsung Electronics Co., Ltd. Electronic device for providing feedback corresponding to input for housing
CN113305867A (zh) * 2021-05-20 2021-08-27 上海纳深机器人有限公司 支持多种ai编程的机器人控制电路及控制系统
US11498225B2 (en) 2019-02-21 2022-11-15 Samsung Electronics Co., Ltd. Touch input processing method and electronic device supporting the same

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11498225B2 (en) 2019-02-21 2022-11-15 Samsung Electronics Co., Ltd. Touch input processing method and electronic device supporting the same
WO2020235821A1 (en) * 2019-05-23 2020-11-26 Samsung Electronics Co., Ltd. Electronic device for providing feedback corresponding to input for housing
CN113490576A (zh) * 2019-05-23 2021-10-08 三星电子株式会社 用于提供与针对壳体的输入相应的反馈的电子装置
US11445604B2 (en) 2019-05-23 2022-09-13 Samsung Electronics Co., Ltd. Electronic device for providing feedback corresponding to input for housing
CN113490576B (zh) * 2019-05-23 2024-06-18 三星电子株式会社 用于提供与针对壳体的输入相应的反馈的电子装置
CN113305867A (zh) * 2021-05-20 2021-08-27 上海纳深机器人有限公司 支持多种ai编程的机器人控制电路及控制系统
CN113305867B (zh) * 2021-05-20 2023-03-14 上海纳深机器人有限公司 支持多种ai编程的机器人控制电路及控制系统

Similar Documents

Publication Publication Date Title
JP4988016B2 (ja) 指の動き検出装置およびその方法
US20190204929A1 (en) Devices and methods for dynamic association of user input with mobile device actions
KR101313106B1 (ko) 손가락 착용형 매개 장치 및 상기 장치를 이용한 손가락 동작 인식 방법
US20100066664A1 (en) Wrist-worn input apparatus and method
US9367139B2 (en) Systems, articles, and methods for gesture identification in wearable electromyography devices
US20090153499A1 (en) Touch action recognition system and method
CA2850208C (en) Data glove having tactile feedback and method
CN104765461B (zh) 一种控制方法及电子设备
JP2008140182A5 (ko)
WO2009075433A1 (en) Data input apparatus and data processing method therefor
JP2006511862A (ja) 非接触型入力装置
KR20190092782A (ko) 손가락의 움직임 및 공간상에서의 손의 움직임을 인식할 수 있는 글러브형 모션인식 장치 및 방법
KR20150112741A (ko) 웨어러블 장치 및 이를 이용한 정보 입력 방법
KR20110076426A (ko) 로봇의 터치 센서 시스템
KR101497829B1 (ko) 모션 입력을 이용하는 손목시계형 장치
KR101554125B1 (ko) 웨어러블 장치 및 이를 이용한 정보 입력 방법
WO2003096172A1 (en) Apparatus for generating command signals to an electronic device
US10712831B2 (en) Information processing apparatus, method, and program
KR20140112316A (ko) 모션인식을 이용한 스마트 디바이스 제어 장치 및 방법
KR102454604B1 (ko) 동작감지형 점자 디스플레이 장치의 제스처 명령 수행 방법 및 장치
KR100997840B1 (ko) 손가락을 접촉하여 조작이 가능한 인터페이스 장치
CN109739357A (zh) 机械手的控制方法及装置
US20220342489A1 (en) Machine learning user motion identification using intra-body optical signals
KR20130006172A (ko) 디스플레이 시스템과 방법 및 디스플레이 단말과 통신하는 입력 단말
KR101121784B1 (ko) 입출력 성질을 가진 소자를 이용한 터치 및 햅틱 구동 시스템

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application