KR20090065884A - 접촉 행동 인식 시스템 및 그 방법 - Google Patents

접촉 행동 인식 시스템 및 그 방법 Download PDF

Info

Publication number
KR20090065884A
KR20090065884A KR1020070133421A KR20070133421A KR20090065884A KR 20090065884 A KR20090065884 A KR 20090065884A KR 1020070133421 A KR1020070133421 A KR 1020070133421A KR 20070133421 A KR20070133421 A KR 20070133421A KR 20090065884 A KR20090065884 A KR 20090065884A
Authority
KR
South Korea
Prior art keywords
sensor
contact behavior
behavior recognition
value
contact
Prior art date
Application number
KR1020070133421A
Other languages
English (en)
Other versions
KR100941638B1 (ko
Inventor
김재홍
강상승
손주찬
조현규
조영조
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020070133421A priority Critical patent/KR100941638B1/ko
Priority to US12/190,760 priority patent/US20090153499A1/en
Publication of KR20090065884A publication Critical patent/KR20090065884A/ko
Application granted granted Critical
Publication of KR100941638B1 publication Critical patent/KR100941638B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Toys (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 접촉 행동 인식 시스템 및 그 방법에 관한 것으로, 사람의 신체 일부에 부착된 관성 센서를 통해 대상체에 대한 접촉 행동에 상응하는 센서값을 검출하는 센서 수단과, 이 센서 수단에 의해 검출된 센서값으로부터 접촉 행동을 인식하여 접촉 행동 인식 결과를 대상체에게 전달하는 신호 처리 수단을 포함하며, 초기에 센서를 로봇 등과 같은 대상체에 부착을 하지 않아도 되고, 사람의 손에 의한 접촉 행동인지를 명확히 구분하며, 대상체의 외피가 있는 경우 외피에 의한 오인식이 발생하지 않고, 다양한 접촉 행동을 인식할 수 있는 이점이 있다.
접촉 행동 인식, 로봇 제어, 관성 센서

Description

접촉 행동 인식 시스템 및 그 방법{TOUCHING BEHAVIOR RECOGNITION SYSTEM AND METHOD}
본 발명은 접촉 행동 인식 시스템 및 그 방법에 관한 것으로, 더욱 상세하게는 대상체에 대한 사람의 접촉 행동을 인식하는 시스템 및 그 인식 방법에 관한 것이다.
본 발명은 정보통신부 및 정보통신연구진흥원의 IT성장동력 기술개발 사업의 일환으로 수행한 연구로부터 도출된 것이다.[과제관리번호 : 2006-S-026-02, 과제명 : 능동형 서비스를 위한 URC 서버 프레임웍 개발]
접촉 행동 인식이란 사람의 손이 대상체, 특히 로봇에 닿으면서 발생할 수 있는 "때리다", "쓰다듬다", "긁다", "간지럽게 하다", "찌르다" 등과 같은 행동을 알아내는 것을 말한다. 예를 들어, 사람이 손으로 로봇의 머리를 "쓰다듬은" 경우 이를 인식하기 위해 사용된 장치를 포함한 시스템을 접촉 행동 인식 시스템, 사용된 방법을 접촉 행동 인식 방법이라고 한다.
이러한 접촉 행동 인식 시스템 및 방법은 최근 로봇의 영역이 산업용 로봇에서 가정용 로봇, 특히 애완형 로봇 등으로 확대되면서 그 필요성이 증가되고 있다. 예들 들어, 현재 상용으로 판매되고 있는 강아지 모양의 애완형 로봇에 적용되면 로봇이 사람이 자신을 "때렸는지", "쓰다듬었는지", "간지럽게 했는지" 등을 알 수 있으므로 로봇의 감성이나 개성 등에 다양한 변화를 가능하게 하여 사람에게 보다 실감나는 반응을 보여 줄 수 있다. 즉, "때리면" 위협을 느껴 짖으면서 뒤로 물러서거나, "쓰다듬으면" 주인을 행복한 표정으로 쳐다보거나 하는 진짜 동물 같은 반응을 가능하게 할 수 있다.
도 1은 종래의 제 1 실시 예에 따른 접촉 행동 인식 기술을 설명하기 위한 구성도이다.
도 1을 참조하면, 사람의 손(10) 또는 다른 무엇이 닿으면 접촉을 인식하는 복수의 터치 센서(21, 23)를 로봇(20)의 개별 부위에 각각 부착한다. 로봇(20)에 부착한 터치 센서(21, 23)를 이용하여 단순한 형태의 접촉 행동을 인식하는 기술로서, 사람의 손(10) 또는 그 무엇이 터치 센서(21, 23)를 건드리면 로봇(20) 내의 처리 시스템이 이를 인식하는 방식이다. 이로써, 사물의 접촉이 "있다(ON)", "없다(OFF)"를 판단할 수 있다.
도 2는 종래의 제 2 실시 예에 따른 접촉 행동 인식 기술을 설명하기 위한 구성도이다. 설명의 이해를 돕기 위해 도 1에 도시된 종래의 제 1 실시 예와 비교할 때에 대응하는 구성요소에 대해서는 동일한 도면부호를 명기하였다.
도 2를 참조하면, 사람의 손(10) 또는 다른 무엇이 닿으면 접촉을 인식하는 복수의 터치 센서(21, 23, 25)를 로봇(20)의 특정 부위에 근접하게 부착한다. 도 1 의 종래 제 1 실시 예와 유사한 접촉 행동 인식 기술로서, 예들 들어, 사람의 손(10) 또는 그 무엇이 로봇(20)의 터치 센서(21, 23, 25) 중 임의의 센서를 건드리면 "때리다"로 인식하고, 터치 센서(21, 23, 25)를 순차적으로 건드리면 "쓰다듬다"로 인식하는 방식이다.
도 3은 종래의 제 3 실시 예에 따른 접촉 행동 인식 기술을 위한 공정 순서를 보인 사진들이다.
도 3을 참조하면, 무엇이 닿은 것과 닿지 않은 것만 구분하는 단순한 형태의 터치 센서가 아닌 힘의 크기까지 측정 가능한 힘 센서(31)를 로봇(또는 인형)의 팔에 배열 형태로 만들어 접촉 행동 인식을 하는 방식이다. 도 3의 (a)와 같이 직사각형 모양의 힘 센서(31)들을 둥글게 배치하며, 도 3의 (b)와 같이 힘 센서(31)들 위에 구조물(33)을 만들고, 도 3의 (c)와 같이 다시 그 위에 외피(35)를 입힌다. 이와 같이 터치 센서가 아닌 힘 센서(31)를 사용한 경우에는 "간지럽게 하다", "찌르다" 등을 포함하는 다수의 접촉 행동 인식을 한다.
전술한 바와 같은 종래의 접촉 행동 인식 기술들은 다음과 같은 문제점이 있다.
첫째, 대상체(예를 들면, 로봇, 완구, 인형)에 터치 센서 또는 힘 센서가 부착이 되어 있어야 한다. 사전에 터치 센서 또는 힘 센서가 부착되어 있지 않고, 그에 대한 처리 프로그램이 내장되어 있지 않은 경우에는 접촉 행동 인식이 불가능하다.
둘째, 그러한 터치 센서나 힘 센서를 대상체에 부착하는 것이 쉽지 않다. 특히, 도 3에서와 같이 힘 센서 위에 구조물이나 외피를 대상체에 부착하는 과정이 필요한 경우 더욱 설치가 어렵다.
셋째, 종래의 제 1 실시 예와 제 2 실시 예의 경우에는 사람의 손이 닿았는지 물체가 닿았는지를 명확히 구분할 수 없는 경우가 존재한다. 이런 경우 단순히 터치 센서에 물체가 닿은 경우도 사람의 손이 닿아 발생한 접촉 행동으로 인식할 수 있다. 종래의 제 3 실시 예의 경우에는 대상체에 도 2의 (c)에 있는 외피(35)를 입힌 경우에 자세를 변경할 때 외피가 눌리는 현상이 발생하면 사람의 손이 닿은 것으로 판단될 수 있기 때문에 접촉 행동 인식이 쉽지 않다.
넷째, 종래의 제 1 실시 예와 제 2 실시 예의 경우에는 다양한 접촉 행동 인식이 불가능하다. 단순히 접촉이 "있다", "없다" 또는 "쓰다듬다", "때리다" 정도만 인식할 수 있는 것이다.
본 발명은 이러한 종래 기술의 문제점을 해결하기 위해 제안한 것으로서, 물체의 움직임을 검출할 수 있는 관성 센서를 포함하는 접촉 행동 인식 장치를 대상체가 아닌 사람의 손에 설치하여 대상체에 대한 사람의 접촉 행동을 인식하도록 한다. 특히 관성 센서와 터치 센서 또는 관성 센서와 광 센서를 이용하는 이종 센서의 퓨전을 통해 대상체에 대한 사람의 "때리다", "쓰다듬다", "긁다", "간지럽게 하다", "찌르다" 등과 같은 행동을 인식하도록 한다.
본 발명의 제 1 관점으로서 접촉 행동 인식 시스템은, 대상체에 대한 사람의 접촉 행동을 인식하는 접촉 행동 인식 시스템으로서, 상기 사람의 신체 일부에 부착된 관성 센서를 통해 상기 접촉 행동에 상응하는 센서값을 검출하는 센서 수단과, 상기 센서 수단에 의해 검출된 센서값으로부터 상기 접촉 행동을 인식하여 접촉 행동 인식 결과를 상기 대상체에게 전달하는 신호 처리 수단을 포함한다.
본 발명의 제 2 관점으로서 접촉 행동 인식 방법은, 대상체에 대한 사람의 접촉 행동을 인식하는 접촉 행동 인식 방법으로서, (a) 상기 사람의 신체 일부에 부착된 관성 센서를 통해 상기 접촉 행동에 상응하는 센서값을 검출하는 단계와, (b) 검출된 상기 센서값으로부터 상기 접촉 행동을 인식하여 접촉 행동 인식 결과를 상기 대상체에게 전달하는 단계를 포함한다.
본 발명에 의하면, 초기에 센서를 로봇에 부착을 하지 않아도 되고, 사람의 손에 의한 접촉 행동인지를 명확히 구분하며, 대상체의 외피가 있는 경우 외피에 의한 오인식이 발생하지 않고, 다양한 접촉 행동을 인식할 수 있는 효과가 있다.
이하, 본 발명의 바람직한 실시 예를 첨부된 도면들을 참조하여 상세히 설명한다. 그리고 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 특히 본 발명에 의한 접촉 행동 인식의 대상체는 로봇, 완구, 인형 등 어떠한 대상체에도 적용할 수 있으나, 이하에서는 설명의 이해를 돕기 위하여 대상체를 로봇으로 예시하기로 한다.
본 발명에서는 로봇에 대한 사람의 "때리다", "쓰다듬다", "긁다", "간지럽게 하다", "찌르다" 등과 같은 행동을 센싱하기 위하여 관성 센서 단독 또는 관성 센서와 터치 센서 또는 관성 센서와 광 센서를 이용한다. 또한, 관성 센서로는 가속도를 측정하는 가속도 센서 또는 각속도를 측정하는 각속도 센서 또는 가속도 센서와 각속도 센서를 모두 포함하는 모션 센서가 될 수 있다.
도 4는 본 발명의 실시 예에 따른 접촉 행동 인식 시스템의 기본 개념도이고, 도 5는 본 발명의 실시 예에 따른 접촉 행동 인식 시스템의 하드웨어 측면에서의 상세 구성도이고, 도 6은 본 발명의 실시 예에 따른 관성 센서와 터치 센서를 함께 사용한 예이고, 도 7은 본 발명의 실시 예에 따른 관성 센서와 광 센서를 함 께 사용한 예이다.
도 4 내지 도 7을 참조하여 본 발명의 실시 예에 따른 접촉 행동 인식 시스템의 구성 및 동작을 상세히 설명한다.
본 발명에 따른 접촉 행동 인식 시스템은, 센서 보드(100), 신호 처리 보드(200), 로봇(300)을 포함한다.
센서 보드(100)는 사람의 손가락에 최소 한 개에서 최대 다섯 개가 부착되며, 사람이 로봇(300)을 대상으로 "때리다", "간질이다", "쓰다듬다", "찌르다", "긁다" 등의 접촉 행동을 할 때 그 행동에 상응하는 센서값이 센서들(110, 120, 140)에 의해 센싱되면, 센서 처리기(150)를 통해 센싱된 값을 읽어 들이고, 센서 인터페이스(130)를 통해 센싱된 값을 신호 처리 보드(200)로 전송한다.
신호 처리 보드(200)는 예로서, 사람의 손목에 부탁되며, 센서 인터페이스(130)와 연결된 신호 처리 인터페이스(220)를 통해 센서 보드(100)에서 수집된 센서 데이터를 가져와서 신호 처리기(210)를 통해 센서 입력에 대한 후처리와 신호 전처리 및 신호 처리를 수행하고, 그 수행 결과인 "때리다", "간질이다", "쓰다듬다", "찌르다", "긁다" 등의 접촉 행동 인식 결과를 통신 채널(230)을 통해 로봇(300)으로 전달한다. "때리다", "쓰다듬다", "찌르다", "간질이다", "긁다" 등의 인식된 결과를 사람이 몸으로 느낄 수 있게 해 주는 피드백 장치(240), 신호 처리 보드(200) 및 센서 보드(100)에 전원을 공급하는 전원회로(250)를 포함한다.
로봇(300)은 본 발명의 신호 처리 수단인 신호 처리 보드(200)의 통신 채 널(230)을 통해 전달된 접촉 행동 인식 결과를 통신 채널(표시하지 않음)을 통해 수신하여 로봇(300) 내부에서 정해진 목적에 맞게 처리한다.
본 발명에 의한 센서 수단인 센서 보드(100)에는 관성 센서(120) 단독 또는 관성 센서(120)와 터치 센서(110) 또는 관성 센서(120)와 광 센서(140)가 연결된다. 또한, 관성 센서(120)로는 가속도를 측정하는 가속도 센서 또는 각속도를 측정하는 각속도 센서 또는 가속도 센서와 각속도 센서를 모두 포함하는 모션 센서가 될 수 있다. 도면에는 나타내지 않았으나 손목의 움직임도 인식할 수 있게 하기 위해 속목에 관성 센서를 추가로 부착할 수 있으며, 도 4와 같이 신호 처리 보드(200)를 사람의 손목에 부착한 경우에는 손목의 움직임을 인식하기 위한 관성 센서는 센서 보드(100)가 아닌 신호 처리 보드(200)에 연결하는 것이 바람직하다.
터치 센서(120)로는 물체가 닿았는지 아닌지만 판단할 수 있는 온/오프(ON/OFF) 감지 터치 센서 또는 닿을 때 감지되는 힘의 크기까지 측정 가능한 힘 센서까지 어떠한 종류의 센서도 가능하다.
광 센서(140)는 물체에서 반사되는 빛의 세기를 통해 대상 물체가 어떤 색인지를 알 수 있는 센서이다.
한편, 센서 처리기(150)와 신호 처리기(210)는 데이터 저장 및 처리를 위해 메모리를 필요로 한다. 그러나, 본 발명에서는 어떤 데이터에 대한 처리를 위해서도 메모리가 기본적으로 필요한 사항이므로 센서 처리기(150) 및 신호 처리기(210)에 포함되는 것으로 간주하고 별도로 표시하거나 설명하지는 않는다. 또한, 신호 처리 보드(200)에 포함되는 전원회로(250)는 일반적인 모든 회로 보드들이 전원회 로를 포함하고 있고 이와 관련된 사항들 또한 공통적이거나 유사하므로 이에 대한 설명은 이하에서 하지 않는다.
피드백 장치(240)는 "때렸을 때"는 빠른 템포로 오랫동안 강하게 진동하고, "간지럽게 했을 때"는 중간 템포로 간지럽게 하는 동안 보통 강도로 진동하고, "쓰다듬었을 때"는 느린 템포로 잠깐 동안 약한 강도로 진동하는 등의 기능을 하는 진동 모터가 될 수 있다. 이하, 본 발명의 실시 예에서는 설명의 편의를 위해 진동 모터로 기술하지만, 변형 예로서, 전류를 흘려보내는 장치와 같은 것이 될 수도 있다. 피드백 장치(240)는 로봇(300)이 사람의 접촉 행동에 의해 느끼는 것을 피드백해주는 장치로 볼 수 있다.
로봇(300)은 예를 들어, 로봇이 애완 동물 형태로 된 것이라면, 사람이 로봇을 "때리면" 위협을 느껴 짖으면서 뒤로 물러서거나, 사람이 로봇을 "쓰다듬으면" 주인을 행복한 표정으로 쳐다보거나 하는 등의 진짜 동물 같은 반응을 하도록 하는 등의 로봇에 대한 제어를 포함한 어떤 것이든 될 수 있으나, 본 발명은 로봇에 대한 제어 그 자체를 핵심적으로 다루는 것이 아니라 그 제어를 위한 입력의 발생에 해당하는 접촉 행동 인식 기술을 주 내용으로 다루는 것이므로 이 부분에 대해서는 상세히 설명하지는 않는다. 따라서, 로봇(300)의 내부 시스템 및 처리 흐름 등은 상세히 설명하지 않고 범용적으로 설명한다.
도 6은 본 발명의 실시 예에 따른 관성 센서(110)와 터치 센서(120)를 함께 사용한 예이다. 이 경우, 손가락의 바닥면에 부착된 터치 센서(120)가 로봇(300)에 닿은 경우 닿은 시점을 알 수 있다. 따라서, 관성 센서(110)와 터치 센서(120)를 함께 사용할 경우 다음과 같은 장점을 가진다.
첫째, 센서 퓨전을 통해 노이즈 제거가 쉬워진다.
둘째, 센서 퓨전을 통해 보다 많은 종류의 접촉 행동 인식이 가능해진다. 특히, 온/오프 터치 센서가 아닌 힘 센서를 관성 센서와 함께 사용할 경우 더 많은 종류의 접촉 행동 인식이 가능하다.
셋째, 센서 퓨전을 통해 정확도가 높아진다.
도 8은 본 발명의 실시 예에 따라 관성 센서와 터치 센서를 함께 사용할 때 노이즈 제거의 장점을 보여주는 그래프이다.
이하 설명에서 오른쪽 엄지손가락에서 새끼손가락까지를 순차적으로 R1, R2, R3, R4, R5라고 하고, 왼쪽 엄지손가락에서 새끼손가락까지를 순차적으로 L1, L2, L3, L4, L5라고 하기로 한다.
관성 센서(110)가 단독으로 사용된다면 손을 허공에서 움직이는 경우 발생하는 신호를 노이즈로 정확히 구분해 내는 것이 쉽지 않다. 그러나, 터치 센서(120)와 함께 사용된다면 사람의 손이 로봇(300)의 표면에 닿았을 때 터치 센서(120)가 온이 된다는 것을 알기 때문에, 터치 센서가 온이 되는 시점을 관성 센서(110)의 유효성을 체크하는 기준 시간으로 삼을 수 있다.
보다 상세히 설명하면, 도 8의 (a)가 R2에 부착된 관성 센서(110) 중 하나의 값이고, 도 8의 (b)가 R2의 아래쪽 면(손바닥 면)에 부착된 온/오프 터치 센서(120)의 신호이다. 도 8의 (a)에서 T1은 "때리다", T2는 "간지럽게 하다", T6과 T7은 노이즈에 해당하는 신호이다. 단순히, 도 8의 (a)만 존재하는 상황이라면 T6과 T7에 표시된 신호가 노이즈라는 것을 쉽게 판단하기 어렵다. 그러나, 도 8의 (b)의 정보가 같이 제공된다면, T6이나 T7과 같은 노이즈를 제거하는데 많은 도움이 된다.
즉, 일실시 예를 보면, T3 신호가 발생한 시각을 Ts1+α라고 하면, 그 보다 α만큼 뒤의 시각인 Ts1을 관성 센서(110) 신호 T1의 시작 시점으로 삼을 수 있다. T1의 종료 시점은 T8부분의 확장된 도면인 도 8의 (c)를 예로 설명한다. 도 8의 (c)는 관성 센서(110) 값의 지정된 단위 시간당 변화량이 실험에 의해 미리 정의된 문턱값(예를 들어, T9)보다 작은 상태를 일정 시간(T10)이상 유지하는 상황의 일실시 예인데, 이러한 경우를 관성 센서(110) 신호의 끝 시점(Te1)으로 결정한다.
Te1이후 다음 터치 센서(120) 신호 T4가 들어오는 시각인 Ts2+b 사이에 발생한 관성 센서(110) 신호 T6을 노이즈로 간주한다. 이것은 관성 센서(110)와 터치 센서(120)의 퓨전을 통해 가능한 것이다. 터치 센서(120)를 함께 사용하지 않은 경우, T6내 관성 센서(110)의 신호들은 미리 정해진 문턱값보다 크게 변화하기 때문에 노이즈로 간주되지 않고, 정상적인 데이터로 간주된다.
도 8의 T2, T4 및 T5는 "간지럽게 하다"의 일실시 예에 해당하는 관성 센서(110) 및 터치 센서(120)의 신호이다. "간지럽게 하다"의 경우 일반적으로 R2, R3이 반복적으로 움직이게 되는 상황이므로 도 8과 같은 신호가 발생한다. 이때도, T4의 발생 시각인 Ts2+b보다 b이전의 시간 Ts2를 T2의 시작 시점으로 삼고, 터치 센서(120)의 신호가 지속적으로 들어오는 상황이므로 일정한 시간 간격이내로 계속 들어오는 마지막 신호인 T5의 발생 시각 Te2+b를 기준으로 T2의 종료 시점 Te2를 결정한다. T6의 경우와 마찬가지로 T7도 노이즈로 간주한다.
이와 같은 이유로, 하나의 센서를 이용하는 것보다는 본 발명에서와 같이 서로 시너지 효과가 있는 다수의 센서 퓨전을 통해 노이즈를 쉽게 제거할 수 있을 뿐만 아니라, 보다 많은 종류의 접촉 행동 인식이 가능해진다. 특히, 단순 온/오프 터치 센서(120) 대신 힘 센서를 관성 센서(110)와 함께 사용할 경우 접촉 행동에 따른 힘의 크기까지 알 수 있기 때문에 더 많은 접촉 행동 인식이 가능하다. 또한, 추가적인 정보에 의해 접촉 행동 인식의 정확도가 향상된다. 예를 들어, 도 8의 T1과 T7의 경우 T3 및 T4~T5의 정보에 의해 그들의 구분이 애매하지 않고 보다 명확해 지며, 정확도가 향상된다는 것은 인식할 수 있는 접촉 행동의 수가 더 많아진다는 것을 의미한다.
도 9는 본 발명의 실시 예에 따른 접촉 행동 인식 시스템에서 센서 처리기와 신호 처리기를 세부적으로 나타낸 블록 구성도이다.
센서 처리기(150)는 관성 센서(110) 단독 또는 관성 센서(110)와 터치 센서(120) 또는 관성 센서(110)와 광 센서(140)가 연결되어 있는 상태에서 사람의 손 부위의 움직임에 따라 센서들(110, 120, 140)에 의해 센서값이 발생하면 그 값을 검출하는 센싱부(151)와, 센싱부(151)에서 검출된 데이터를 신호 처리 보드(200)와 연결된 센서 인터페이스(130)를 통해 전송하는 센싱값 송신부(152)를 포함한다.
신호 처리기(210)는 센싱값 송신부(152)에서 송신된 센서 데이터를 센서 보 드(100)에 연결된 신호 처리 인터페이스(220)를 통해 입력 받는 센서 입력부(211)와, 입력된 센서값이 아날로그 값이면 디지털 값으로 변환해서 모든 값들을 정규화하여 정규화된 디지털 값을 다음 과정으로 넘겨주는 센서입력 후처리부(212)와, 디지털 및 정규화된 센서 입력 값을 입력 받아 우선 터치 센서(120)나 광 센서(140)의 기준 센서값이 있는지를 판단하여 만약 기준 센서값이 있는 경우 기준 센서값을 참조하여 노이즈를 제거한 후 데이터 구간을 분할하고, 만약 기준 센서값이 없는 경우 관성 센서(110) 값만을 이용하여 데이터 구간을 분할한 후에 접촉 행동 인식을 위해 노이즈가 제거되어 분할된 데이터 구간에서 특징을 추출하는 신호 전처리부(213)와, 신호 전처리부(213)에서 전달된 특징 데이터를 가지고 미리 준비해 둔 참조 데이터와 유사도를 비교하여 정해진 문턱값을 넘는 참조 데이터가 있는지를 판단하여 가장 유사한 접촉 행동 인식 클래스를 결정하는 신호처리부(214)와, 신호처리부(214)에서 인식된 로봇(300)에 대한 접촉 행동 인식 결과를 통신 채널(230)을 통해 로봇(300)으로 전달하는 송신부(215)를 포함한다.
한편, 신호 처리 보드(200)에는 앞서 도 5를 참조하여 설명한 바와 같이 피드백 장치(240)를 포함한다. 이 피드백 장치(240)는 신호처리부(214)의 접촉 행동 인식 결과의 유형에 따라 미리 정해진 해당하는 피드백을 수행하도록 구현할 수도 있으며, 접촉 행동 인식 결과를 수신한 로봇(300)의 처리 결과에 따라 피드백을 수행하도록 구현할 수도 있다. 전자의 경우에 신호 처리기(210)는 신호처리부(214)에서 인식된 로봇(300)에 대한 접촉 행동 인식 결과에 따라 피드백 장치(240)를 제어하여 미리 정해진 해당 피드백을 수행하도록 하는 피드백 처리부(216)를 포함한다. 후자의 경우에 신호 처리기(210)는 로봇(300)으로부터 접촉 행동 인식 결과에 대한 처리 결과를 수신하는 수신부(217)와, 수신부(217)를 통해 수신한 로봇(300)의 접촉 행동 인식 처리 결과에 따라 피드백 장치(240)를 제어하여 미리 정해진 해당 피드백을 수행하도록 하는 피드백 처리부(216)를 포함한다.
도 10은 본 발명의 실시 예에 따른 접촉 행동 인식 방법을 설명하기 위한 흐름도이고, 도 11은 도 10에 나타낸 후처리 및 전처리 과정을 보다 자세히 설명하기 위한 흐름도이며, 도 12는 도 10에 나타낸 접촉 행동 인식 및 피드백 과정을 보다 자세히 설명하기 위한 흐름도이다.
도 10 내지 도 12를 참조하여 본 발명의 실시 예에 따른 접촉 행동 인식 방법에 대해 상세히 설명한다.
도 10을 참조하면 접촉 행동 인식 방법은, 센서 보드(100)의 관성 센서(110) 단독 또는 관성 센서(110)와 터치 센서(120) 또는 관성 센서(110)와 광 센서(140)가 연결되어 있는 상태에서 사람의 손 부위의 움직임에 따라 센서들(110, 120, 140)에 의해 센서값이 발생하면 그 값을 검출하는 단계(S411)와, 이렇게 검출 데이터를 신호 처리 보드(200)와 연결된 센서 인터페이스(130)를 통해 전송하는 단계(S412)와, 센서 보드(100)에서 전송한 센서 데이터를 신호 처리 보드(200)가 센서 보드(100)에 연결된 신호 처리 인터페이스(220)를 통해 입력 받는 단계(S421)와, 입력된 센서값이 아날로그 값이면 디지털 값으로 변환해서 모든 값들을 정규화 하여 정규화된 디지털 값을 다음 과정으로 넘겨주는 센서값에 대한 후처리 단계(S422)와, 디지털 및 정규화된 센서 입력 값을 입력 받아 우선 터치 센서(120)나 광 센서(140)의 기준 센서값이 있는지를 판단하여 만약 기준 센서값이 있는 경우 기준 센서값을 참조하여 노이즈를 제거한 후 데이터 구간을 분할하고, 만약 기준 센서값이 없는 경우 관성 센서(110) 값만을 이용하여 데이터 구간을 분할한 후에 접촉 행동 인식을 위해 노이즈가 제거되어 분할된 데이터 구간에서 특징을 추출하는 신호에 대한 전처리 단계(S423)와, 신호에 대한 전처리 단계에서 전달된 특징 데이터를 가지고 미리 준비해 둔 참조 데이터와 유사도를 비교하여 정해진 문턱값을 넘는 참조 데이터가 있는지를 판단하여 가장 유사한 접촉 행동 인식 클래스를 결정하는 접촉 행동 인식 단계(S424)와, 이 접촉 행동 인식 단계(S424)에서 인식된 로봇(300)에 대한 접촉 행동 인식 결과를 통신 채널(230)을 통해 로봇(300)으로 전달하는 인식 결과 송신 단계(S425)와, 이 인식 결과 송신 단계(S425)에서 전달된 로봇(300)에 대한 접촉 행동 인식 결과에 따라 로봇(300) 내부에서 정해진 목적에 따라 처리하는 단계(S430)를 포함한다.
한편, 접촉 행동 인식 방법은 접촉 행동 인식 결과 또는 로봇(300)에 의한 처리 결과를 사람이 몸으로 느낄 수 있게 해 주는 피드백 과정이 포함되는데, 이 피드백 과정은 접촉 행동 인식 단계(S424)의 접촉 행동 인식 결과의 유형에 따라 미리 정해진 해당하는 피드백을 수행하도록 구현할 수도 있으며, 접촉 행동 인식 결과를 수신한 로봇(300)의 처리 결과에 따라 피드백을 수행하도록 구현할 수도 있다. 전자와 같이 직접 피드백 모드인 경우에 접촉 행동 인식 단계(S424)에서 인식 된 로봇(300)에 대한 접촉 행동 인식 결과에 따라 피드백 장치(240)를 제어하여 미리 정해진 해당 피드백을 수행하도록 하는 사용자 피드백 단계(S426)를 포함한다. 후자와 같이 간접 피드백 모드인 경우에 로봇(300)으로부터 접촉 행동 인식 결과에 대한 처리 결과를 수신하는 단계(S427)와, 수신된 로봇(300)의 접촉 행동 인식 처리 결과에 따라 피드백 장치(240)를 제어하여 미리 정해진 해당 피드백을 수행하도록 하는 사용자 피드백 단계(S426)를 포함한다. 도 10에서 단계 S411 및 S412를 포함하는 단계 S410은 센서 보드(100)에 의해 수행되며, 단계 S421 내지 S427을 포함하는 단계 S420은 신호 처리 보드(200)에 의해 수행된다.
센서값에 대한 후처리 단계(S422)를 보다 자세히 살펴보면, 센서값을 입력 받는 단계(S421)에서 입력된 센서값이 아날로그 데이터인지 디지털 데이터인지를 판단하여(S511), 판단된 결과가 아날로그 데이터이면 디지털 데이터로 변환하는 단계(S512)에서 디지털 데이터로 변환한 후에 데이터 정규화 단계(S513)로 넘어가고, 판단된 결과가 디지털 데이터이면 데이터 정규화 단계(S513)로 바로 넘어간다. 데이터 정규화 단계(S513)에서 정규화가 완료된 정규화된 센서 입력 값은 신호에 대한 전처리 단계(S423)로 넘어간다.
신호에 대한 전처리 단계(S423)를 보다 자세히 살펴보면, 센서값에 대한 후처리 단계(S422)에서 처리가 끝나 정규화된 디지털 값으로 변환된 센서 입력 값이 들어오면, 터치 센서(120)나 광 센서(140)와 같이 관성 센서(110)의 노이즈를 제거 할 수 있는 정보가 되는 기준 센서값이 있는지를 판단하고(S521), 만약, 기준 센서값이 있으면 기준 센서값을 참조하여 관성 센서(110)의 데이터 구간을 분할하고(S522), 만약, 기준 센서값이 없으면 관성 센서(110)값만을 가지고 관성 센서(110)의 데이터 구간을 분할한다(S523). 관성 센서(110)의 데이터 구간이 분할되면, 분할된 관성 센서(110) 정보와 기준 센서값을 가지고(기준 센서값이 있을 경우), 접촉 행동 인식 단계(S424)를 위해 데이터의 특징을 추출한다(S524). 접촉 행동 인식 단계(S424)를 위한 데이터의 특징이 추출되면, 추출된 특징을 가지고 접촉 행동 인식 단계(S424)를 수행한다.
접촉 행동 인식 단계(S424) 및 사용자 피드백 단계(S426)를 보다 자세히 살펴보면, 신호에 대한 전처리 단계(S423)에서 추출된 특징을 가지고, 미리 만들어진 참조 데이터들과의 비교(S611)를 통해 미리 정해진 문턱값을 넘는 유사도를 가지는 참조 데이터가 존재할 경우 그들 중 가장 높은 유사도를 가지는 참조 데이터와 같은 클래스로 접촉 행동 인식의 클래스를 결정한다(S612). 만약, 정해진 문턱값을 넘는 참조 데이터가 없으면, 아무 일도 하지 않는다.
가장 유사한 접촉 행동 인식의 클래스가 결정되면, 현재의 피드백 모드가 직접 피드백 모드인지 아니면 간접 피드백 모드인지를 판단하고(S613), 만약 판단의 결과가, 직접 피드백 모드이면 접촉 행동 인식의 결과에 따라(S621), 그 결과가 유형 1일 경우 피드백1을 수행하고(S623), 유형i일 경우 피드백i를 수행하고(S624), 유형N일 경우 피드백N을 수행한다(S625). 만약 판단의 결과가, 간접 피드백 모드이 면 인식 결과를 로봇(300)으로 송신하는 단계(S425)를 수행한다.
또한, 사용자 피드백 단계(S426)는 로봇(300)에서의 처리 결과에 따라서도 피드백 처리를 할 수 있는데, 로봇(300)에서의 처리 결과를 수신하여(S427), 그 결과를 판단하는데, 처리해야 하는 피드백의 유형이 유형 1일 경우 피드백1을 수행하고(S623), 유형i일 경우 피드백i를 수행하고(S624), 유형N일 경우 피드백N을 수행한다(S625).
지금까지 본 발명의 일 실시예에 국한하여 설명하였으나 본 발명의 기술이 당업자에 의하여 용이하게 변형 실시될 가능성이 자명하다. 이러한 변형된 실시 예들은 본 발명의 특허청구범위에 기재된 기술사상에 포함된다고 하여야 할 것이다.
도 1은 종래의 제 1 실시 예에 따른 접촉 행동 인식 기술을 설명하기 위한 구성도,
도 2는 종래의 제 2 실시 예에 따른 접촉 행동 인식 기술을 설명하기 위한 구성도,
도 3은 종래의 제 3 실시 예에 따른 접촉 행동 인식 기술을 위한 공정 순서를 보인 사진들,
도 4는 본 발명의 실시 예에 따른 접촉 행동 인식 시스템의 기본 개념도,
도 5는 본 발명의 실시 예에 따른 접촉 행동 인식 시스템의 하드웨어 측면에서의 상세 구성도,
도 6은 본 발명의 실시 예에 따른 관성 센서와 터치 센서를 함께 사용한 예를 보인 도면,
도 7은 본 발명의 실시 예에 따른 관성 센서와 광 센서를 함께 사용한 예를 보인 도면,
도 8은 본 발명의 실시 예에 따라 관성 센서와 터치 센서를 함께 사용할 때 노이즈 제거의 장점을 보여주는 그래프,
도 9는 본 발명의 실시 예에 따른 접촉 행동 인식 시스템에서 센서 처리기와 신호 처리기를 세부적으로 나타낸 블록 구성도,
도 10은 본 발명의 실시 예에 따른 접촉 행동 인식 방법을 설명하기 위한 흐름도,
도 11은 도 10에 나타낸 후처리 및 전처리 과정을 보다 자세히 설명하기 위한 흐름도,
도 12는 도 10에 나타낸 접촉 행동 인식 및 피드백 과정을 보다 자세히 설명하기 위한 흐름도.

Claims (16)

  1. 대상체에 대한 사람의 접촉 행동을 인식하는 접촉 행동 인식 시스템으로서,
    상기 사람의 신체 일부에 부착된 관성 센서를 통해 상기 접촉 행동에 상응하는 센서값을 검출하는 센서 수단과,
    상기 센서 수단에 의해 검출된 센서값으로부터 상기 접촉 행동을 인식하여 접촉 행동 인식 결과를 상기 대상체에게 전달하는 신호 처리 수단
    을 포함하는 접촉 행동 인식 시스템.
  2. 제 1 항에 있어서,
    상기 센서 수단은, 상기 관성 센서와 함께 상기 접촉 행동에 상응하는 센서값을 발생하는 터치 센서 또는 광 센서
    를 포함하는 접촉 행동 인식 시스템.
  3. 제 2 항에 있어서,
    상기 센서 수단은, 상기 관성 센서 단독, 또는 상기 관성 센서와 상기 터치 센서, 또는 상기 관성 센서와 상기 광 센서로부터 상기 센서값을 읽어 들이는 센서 처리기와,
    상기 센서 처리기를 통해 읽어 들인 상기 센서값을 상기 신호 처리 수단으로 전달하는 경로를 제공하는 센서 인터페이스
    를 포함하는 접촉 행동 인식 시스템.
  4. 제 1 항에 있어서,
    상기 신호 처리 수단은, 상기 센서 수단으로부터 상기 센서값을 전달받기 위한 경로를 제공하는 신호 처리 인터페이스와,
    상기 신호 처리 인터페이스를 통해 전달받은 상기 센서값으로부터 추출한 특징 데이터와 미리 준비해 둔 참조 데이터를 비교한 결과에 따라 상기 접촉 행동을 인식하는 신호 처리기와,
    상기 신호 처리기에 의한 상기 접촉 행동 인식 결과를 상기 대상체에게 전달하기 위한 통신 채널
    을 포함하는 접촉 행동 인식 시스템.
  5. 제 4 항에 있어서,
    상기 신호 처리 수단은, 상기 접촉 행동 인식 결과를 상기 사람이 몸으로 느낄 수 있게 해 주는 피드백 장치
    를 포함하는 접촉 행동 인식 시스템.
  6. 제 4 항에 있어서,
    상기 신호 처리기는, 상기 센서 수단으로부터 입력된 상기 센서값이 아날로그 값이면 디지털 값으로 변환해서 모든 값들을 정규화하여 정규화된 디지털 값을 출력하는 센서입력 후처리부와,
    상기 센서입력 후처리부로부터 디지털 및 정규화된 센서값을 입력 받아 데이터 구간을 분할한 후에 분할된 데이터 구간에서 특징을 추출하는 신호 전처리부와,
    상기 신호 전처리부에서 전달된 특징 데이터를 가지고 상기 미리 준비해 둔 참조 데이터와 유사도를 비교하여 정해진 문턱값을 넘는 참조 데이터가 있는지를 판단하여 가장 유사한 접촉 행동 인식 클래스를 결정하여 상기 접촉 행동을 인식하는 신호처리부
    를 포함하는 접촉 행동 인식 시스템.
  7. 제 6 항에 있어서,
    상기 신호 전처리부는, 상기 디지털 및 정규화된 센서값에 상기 터치 센서 또는 상기 광 센서의 기준 센서값이 있는지를 판단하여 만약 기준 센서값이 있는 경우 상기 기준 센서값을 참조하여 노이즈를 제거한 후 상기 데이터 구간을 분할하고, 만약 상기 기준 센서값이 없는 경우 상기 관성 센서 값만을 이용하여 상기 데이터 구간을 분할하는
    접촉 행동 인식 시스템.
  8. 제 5 항에 있어서,
    상기 신호 처리기는, 상기 신호처리부에서 인식된 상기 접촉 행동 인식 결과에 따라 상기 피드백 장치를 제어하여 미리 정해진 해당 피드백을 수행하도록 하는 피드백 처리부
    를 포함하는 접촉 행동 인식 시스템.
  9. 제 5 항에 있어서,
    상기 신호 처리기는, 상기 대상체로부터 상기 접촉 행동 인식 결과에 대한 처리 결과를 수신하는 수신부와, 이 수신부를 통해 수신한 상기 처리 결과에 따라 상기 피드백 장치를 제어하여 미리 정해진 해당 피드백을 수행하도록 하는 피드백 처리부
    를 포함하는 접촉 행동 인식 시스템.
  10. 대상체에 대한 사람의 접촉 행동을 인식하는 접촉 행동 인식 방법으로서,
    (a) 상기 사람의 신체 일부에 부착된 관성 센서를 통해 상기 접촉 행동에 상응하는 센서값을 검출하는 단계와,
    (b) 검출된 상기 센서값으로부터 상기 접촉 행동을 인식하여 접촉 행동 인식 결과를 상기 대상체에게 전달하는 단계
    을 포함하는 접촉 행동 인식 방법.
  11. 제 10 항에 있어서,
    상기 (a) 단계는, 상기 관성 센서와 함께 상기 접촉 행동에 상응하는 센서값을 발생하는 터치 센서 또는 광 센서로부터 상기 센서값을 검출하는
    접촉 행동 인식 방법.
  12. 제 10 항에 있어서,
    상기 (b) 단계는, 상기 센서값으로부터 추출한 특징 데이터와 미리 준비해 둔 참조 데이터를 비교한 결과에 따라 상기 접촉 행동을 인식하는
    접촉 행동 인식 방법.
  13. 제 12 항에 있어서,
    상기 (b) 단계는, (b1) 상기 센서값이 아날로그 값이면 디지털 값으로 변환해서 모든 값들을 정규화하여 정규화된 디지털 값을 출력하는 센서입력 후처리 단계와,
    (b2) 상기 정규화된 디지털 값에 대해 데이터 구간을 분할한 후에 분할된 데이터 구간에서 특징을 추출하는 신호 전처리 단계와,
    (b3) 상기 신호 전처리 단계에서 추출된 특징 데이터를 가지고 상기 미리 준비해 둔 참조 데이터와 유사도를 비교하여 정해진 문턱값을 넘는 참조 데이터가 있는지를 판단하여 가장 유사한 접촉 행동 인식 클래스를 결정하여 상기 접촉 행동을 인식하는 단계
    를 포함하는 접촉 행동 인식 방법.
  14. 제 13 항에 있어서,
    상기 (b2) 단계는, 상기 정규화된 디지털 값에 상기 터치 센서 또는 상기 광 센서의 기준 센서값이 있는지를 판단하여 만약 기준 센서값이 있는 경우 상기 기준 센서값을 참조하여 노이즈를 제거한 후 상기 데이터 구간을 분할하고, 만약 상기 기준 센서값이 없는 경우 상기 관성 센서 값만을 이용하여 상기 데이터 구간을 분할하는
    접촉 행동 인식 방법.
  15. 제 10 항에 있어서,
    상기 접촉 행동 인식 방법은, (c1) 상기 (b) 단계에서 인식된 상기 접촉 행동 인식 결과에 따라 상기 사람이 몸으로 느낄 수 있도록 미리 정해진 해당 피드백을 수행하는 피드백 단계
    를 포함하는 접촉 행동 인식 방법.
  16. 제 10 항에 있어서,
    상기 접촉 행동 인식 방법은, (c11) 상기 대상체로부터 상기 접촉 행동 인식 결과에 대한 처리 결과를 수신하는 단계와,
    (c12) 상기 (c11) 단계에서 수신한 상기 처리 결과에 따라 상기 사람이 몸으로 느낄 수 있도록 미리 정해진 해당 피드백을 수행하는 피드백 단계
    를 포함하는 접촉 행동 인식 방법.
KR1020070133421A 2007-12-18 2007-12-18 접촉 행동 인식 시스템 및 그 방법 KR100941638B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020070133421A KR100941638B1 (ko) 2007-12-18 2007-12-18 접촉 행동 인식 시스템 및 그 방법
US12/190,760 US20090153499A1 (en) 2007-12-18 2008-08-13 Touch action recognition system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070133421A KR100941638B1 (ko) 2007-12-18 2007-12-18 접촉 행동 인식 시스템 및 그 방법

Publications (2)

Publication Number Publication Date
KR20090065884A true KR20090065884A (ko) 2009-06-23
KR100941638B1 KR100941638B1 (ko) 2010-02-11

Family

ID=40752557

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070133421A KR100941638B1 (ko) 2007-12-18 2007-12-18 접촉 행동 인식 시스템 및 그 방법

Country Status (2)

Country Link
US (1) US20090153499A1 (ko)
KR (1) KR100941638B1 (ko)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090132088A1 (en) * 2007-04-24 2009-05-21 Tairob Ltd. Transfer of knowledge from a human skilled worker to an expert machine - the learning process
US9906838B2 (en) 2010-07-12 2018-02-27 Time Warner Cable Enterprises Llc Apparatus and methods for content delivery and message exchange across multiple content delivery networks
US9891718B2 (en) * 2015-04-22 2018-02-13 Medibotics Llc Devices for measuring finger motion and recognizing hand gestures
US9186793B1 (en) 2012-08-31 2015-11-17 Brain Corporation Apparatus and methods for controlling attention of a robot
US9533413B2 (en) 2014-03-13 2017-01-03 Brain Corporation Trainable modular robotic apparatus and methods
US9987743B2 (en) 2014-03-13 2018-06-05 Brain Corporation Trainable modular robotic apparatus and methods
US9364950B2 (en) * 2014-03-13 2016-06-14 Brain Corporation Trainable modular robotic methods
US9426946B2 (en) 2014-12-02 2016-08-30 Brain Corporation Computerized learning landscaping apparatus and methods
US9840003B2 (en) 2015-06-24 2017-12-12 Brain Corporation Apparatus and methods for safe navigation of robotic devices
US10732714B2 (en) 2017-05-08 2020-08-04 Cirrus Logic, Inc. Integrated haptic system
US11259121B2 (en) 2017-07-21 2022-02-22 Cirrus Logic, Inc. Surface speaker
US10455339B2 (en) 2018-01-19 2019-10-22 Cirrus Logic, Inc. Always-on detection systems
US10620704B2 (en) 2018-01-19 2020-04-14 Cirrus Logic, Inc. Haptic output systems
US11139767B2 (en) 2018-03-22 2021-10-05 Cirrus Logic, Inc. Methods and apparatus for driving a transducer
US10795443B2 (en) 2018-03-23 2020-10-06 Cirrus Logic, Inc. Methods and apparatus for driving a transducer
US10820100B2 (en) 2018-03-26 2020-10-27 Cirrus Logic, Inc. Methods and apparatus for limiting the excursion of a transducer
US10832537B2 (en) 2018-04-04 2020-11-10 Cirrus Logic, Inc. Methods and apparatus for outputting a haptic signal to a haptic transducer
CN110405778B (zh) * 2018-04-28 2022-10-21 深圳果力智能科技有限公司 一种机器人
US11069206B2 (en) 2018-05-04 2021-07-20 Cirrus Logic, Inc. Methods and apparatus for outputting a haptic signal to a haptic transducer
US11269415B2 (en) 2018-08-14 2022-03-08 Cirrus Logic, Inc. Haptic output systems
GB201817495D0 (en) * 2018-10-26 2018-12-12 Cirrus Logic Int Semiconductor Ltd A force sensing system and method
US11644370B2 (en) 2019-03-29 2023-05-09 Cirrus Logic, Inc. Force sensing with an electromagnetic load
US11509292B2 (en) 2019-03-29 2022-11-22 Cirrus Logic, Inc. Identifying mechanical impedance of an electromagnetic load using least-mean-squares filter
US10955955B2 (en) 2019-03-29 2021-03-23 Cirrus Logic, Inc. Controller for use in a device comprising force sensors
US10828672B2 (en) 2019-03-29 2020-11-10 Cirrus Logic, Inc. Driver circuitry
US10726683B1 (en) 2019-03-29 2020-07-28 Cirrus Logic, Inc. Identifying mechanical impedance of an electromagnetic load using a two-tone stimulus
US11283337B2 (en) 2019-03-29 2022-03-22 Cirrus Logic, Inc. Methods and systems for improving transducer dynamics
US10992297B2 (en) 2019-03-29 2021-04-27 Cirrus Logic, Inc. Device comprising force sensors
US10976825B2 (en) 2019-06-07 2021-04-13 Cirrus Logic, Inc. Methods and apparatuses for controlling operation of a vibrational output system and/or operation of an input sensor system
US11150733B2 (en) 2019-06-07 2021-10-19 Cirrus Logic, Inc. Methods and apparatuses for providing a haptic output signal to a haptic actuator
KR20220024091A (ko) 2019-06-21 2022-03-03 시러스 로직 인터내셔널 세미컨덕터 리미티드 디바이스 상에 복수의 가상 버튼을 구성하기 위한 방법 및 장치
US11408787B2 (en) 2019-10-15 2022-08-09 Cirrus Logic, Inc. Control methods for a force sensor system
US11380175B2 (en) 2019-10-24 2022-07-05 Cirrus Logic, Inc. Reproducibility of haptic waveform
US11545951B2 (en) 2019-12-06 2023-01-03 Cirrus Logic, Inc. Methods and systems for detecting and managing amplifier instability
US11662821B2 (en) 2020-04-16 2023-05-30 Cirrus Logic, Inc. In-situ monitoring, calibration, and testing of a haptic actuator
US11933822B2 (en) 2021-06-16 2024-03-19 Cirrus Logic Inc. Methods and systems for in-system estimation of actuator parameters
US11908310B2 (en) 2021-06-22 2024-02-20 Cirrus Logic Inc. Methods and systems for detecting and managing unexpected spectral content in an amplifier system
US11765499B2 (en) 2021-06-22 2023-09-19 Cirrus Logic Inc. Methods and systems for managing mixed mode electromechanical actuator drive
US11552649B1 (en) 2021-12-03 2023-01-10 Cirrus Logic, Inc. Analog-to-digital converter-embedded fixed-phase variable gain amplifier stages for dual monitoring paths

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU1328597A (en) * 1995-11-30 1997-06-19 Virtual Technologies, Inc. Tactile feedback man-machine interface device
US5963891A (en) * 1997-04-24 1999-10-05 Modern Cartoons, Ltd. System for tracking body movements in a virtual reality system
JP2001191283A (ja) * 1999-12-31 2001-07-17 Sony Corp ロボット装置及びその制御方法
KR20020008848A (ko) * 2000-03-31 2002-01-31 이데이 노부유끼 로봇 장치, 로봇 장치의 행동 제어 방법, 외력 검출 장치및 외력 검출 방법
KR20020072367A (ko) * 2001-03-09 2002-09-14 삼성전자 주식회사 바이오 피드백을 이용한 정보 입력 시스템 및 정보 입력방법
KR100486739B1 (ko) * 2003-06-27 2005-05-03 삼성전자주식회사 착용형 휴대폰 및 그 사용방법
KR100721803B1 (ko) * 2005-10-07 2007-05-25 삼성전자주식회사 행동패턴 변화를 이용한 노이즈 제거 방법 및 노이즈 제거시스템
US8018440B2 (en) * 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
US7808490B2 (en) * 2007-08-29 2010-10-05 Egalax—Empia Technology Inc. Device and method for determining touch position on sensing area of capacitive touch panel

Also Published As

Publication number Publication date
US20090153499A1 (en) 2009-06-18
KR100941638B1 (ko) 2010-02-11

Similar Documents

Publication Publication Date Title
KR100941638B1 (ko) 접촉 행동 인식 시스템 및 그 방법
KR101576148B1 (ko) 다차원 제스처 평가 시스템 및 방법
US8280732B2 (en) System and method for multidimensional gesture analysis
US7519537B2 (en) Method and apparatus for a verbo-manual gesture interface
JP5911796B2 (ja) マルチモーダル情報を用いるユーザ意図推論装置及び方法
US8279091B1 (en) RFID system for gesture recognition, information coding, and processing
US20120232891A1 (en) Speech communication system and method, and robot apparatus
CN203300127U (zh) 儿童教学监护机器人
JP2010511960A (ja) 手首装着型ユーザ命令入力装置及びその方法
JP7259843B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20080166945A1 (en) Lifelike covering and lifelike electronic apparatus with the covering
CN206181307U (zh) 头戴式耳机
US20200269421A1 (en) Information processing device, information processing method, and program
Popa Hand gesture recognition based on accelerometer sensors
WO2020105309A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2009026125A (ja) 感情分析デバイス、感情分析方法およびプログラム
KR20110022520A (ko) 손가락 움직임 검출 장치 및 그 방법
KR101652705B1 (ko) 멀티 모달 정보를 이용하는 사용자 의도 추론 장치 및 방법
CN111050266B (zh) 一种基于耳机检测动作进行功能控制的方法及系统
CN110262767B (zh) 基于靠近嘴部检测的语音输入唤醒装置、方法和介质
KR20050086164A (ko) 동시에 발생되는 복수의 공간적 움직임으로부터 정보 완료신호를 인식하는 공간형 정보 입력 장치 및 방법
KR102394769B1 (ko) 햅틱 컨트롤러와 근전도 센서를 이용한 햅틱 피드백 제공 시스템 및 방법
EP3611612A1 (en) Determining a user input
CN112540686A (zh) 智能指环及指环工作模式的确定方法和电子设备
JP2001051970A (ja) ユーザ認識度成長システム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130204

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20130730

Year of fee payment: 18