KR20100066621A - 로봇 및 그 제어 방법 - Google Patents

로봇 및 그 제어 방법 Download PDF

Info

Publication number
KR20100066621A
KR20100066621A KR1020080125000A KR20080125000A KR20100066621A KR 20100066621 A KR20100066621 A KR 20100066621A KR 1020080125000 A KR1020080125000 A KR 1020080125000A KR 20080125000 A KR20080125000 A KR 20080125000A KR 20100066621 A KR20100066621 A KR 20100066621A
Authority
KR
South Korea
Prior art keywords
robot
message
sensor
hand
displacement
Prior art date
Application number
KR1020080125000A
Other languages
English (en)
Inventor
김경록
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020080125000A priority Critical patent/KR20100066621A/ko
Priority to US12/616,297 priority patent/US8571713B2/en
Publication of KR20100066621A publication Critical patent/KR20100066621A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/0009Gripping heads and other end effectors comprising multi-articulated fingers, e.g. resembling a human hand
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

로봇 핸드를 이용하여 메시지를 생성하는 로봇 및 제어방법을 개시한다.
로봇 핸드를 이용하여 타이핑하면 핸드 몸체부와 손가락부에서 변위 신호를 출력하고, 명령 판독부는 로봇 핸드로부터 입력되는 변위 신호에 따라 메시지를 생성하고, 생성된 메시지를 로봇 제어부에 전달한다. 또한 생성된 메시지를 음성 출력하거나 디스플레이하여 사용자가 쉽게 확인 할 수 있도록 한다.
로봇, 휴머노이드, 메시지, 인터페이스, 음성

Description

로봇 및 그 제어 방법{Robot and method thereof}
본 발명은 로봇 및 그 제어방법에 관한 것으로, 더욱 상세하게는 로봇 핸드를 이용하여 메시지를 생성하는 로봇 및 그 제어방법에 관한 것이다.
로봇은 어떤 작업이나 조작을 자동적으로 수행하는 장치로서, 다양한 분야에서 인간을 대신하거나 보조하는데 활용되고 있다.
근래에는 인간과 유사한 외관을 가지고 인간과 유사한 행동을 하는 인간형 로봇(humanoid robot)이 개발되고 있다. 인간형 로봇은 일반적인 산업용 로봇과 마찬가지로 각종 산업 현장에 투입되어 인간이 하기 힘든 작업을 대행하는데 이용될 수 있다.
인간형 로봇이 가지는 큰 이점은 인간을 대신한다는 측면보다는 일상 생활에서 인간과 공존하며 다양한 서비스를 친근감있게 제공할 수 있다는 측면에서 찾을 수 있다.
인간형 로봇과 상호 작용하기 위해서, 사용자가 로봇에게 원하는 명령을 입력하여야 한다.
종래 로봇에 음성 인식 기술을 적용하여 음성으로 로봇과 대화하기도 하였다. 이러한 음성 인식을 이용한 대화 방식은 음성 인식의 수준이 높지 않아 음성 인식에 한계가 있고 이에 따라 다양한 서비스를 제공하는데 미흡한 점이 있다.
한편 로봇 몸체에 터치 스크린이나 키보드 또는 무선 장치를 설치하여 사용자 명령을 입력하는 방식이 개시된 바 있으나, 이러한 방식을 구현하기 위해서 별도 장치를 로봇에 부가하여야 하므로 제조 비용이 증가하는 문제가 있다.
본 발명의 일 측면은, 로봇 핸드를 이용하여 메시지를 생성하는 로봇 및 그 제어 방법을 제시하는데 있다.
이를 위해 본 발명의 실시 예에 따른 로봇 핸드는, 핸드 몸체부와; 상기 핸드 몸체부에 결합된 적어도 하나의 손가락부;를 포함하고, 상기 핸드 몸체부 또는 상기 손가락부가 자판 기능을 갖는다.
상기 로봇 핸드는 기계적 변위를 감지하는 센서부를 포함한다.
상기 센서는 상기 로봇 핸드의 관절 부위에 설치되는 인코더 또는 자이로 센서이다.
상기 로봇 핸드는 전기적 변위를 감지하는 센서부를 포함한다.
상기 센서부는 상기 로봇 핸드의 표면에 설치되는 터치 센서와 스트레인게이지 및 토크센서 중 어느 하나이다.
이를 위해 본 발명의 실시 예에 따른 로봇 핸드는, 핸드 몸체부와; 상기 핸드 몸체부에 결합된 적어도 하나의 손가락부; 및 상기 핸드 몸체부 또는 상기 손가락부에 마련되어 자판 기능을 수행하는 센서부;를 갖는다.
상기 센서부는 기계적 변위를 감지하여 변위 신호를 출력하는 인코더 또는 자이로 센서를 구비한다.
상기 센서부는 전기적 변위를 감지하여 변위 신호를 출력하는 터치 센서와 스트레인게이지 및 토크센서 중 어느 하나를 구비한다.
이를 위해 본 발명의 실시 예에 따른 로봇은, 핸드 몸체부와 손가락부를 가 지고, 상기 핸드 몸체부 또는 상기 손가락부가 자판 기능을 갖는 로봇 핸드; 및 상기 로봇 핸드에서 발생하는 변위 신호에 따라 메시지를 생성하는 명령 판독부;를 포함한다.
상기 변위 신호는 상기 로봇 핸드의 기계적 변위 또는 전기적 변위에 의해 발생된다.
상기 명령 판독부는, 상기 변위 신호에 캐릭터를 대응시킨 맵핑 정보를 저장하는 맵핑정보 저장부, 상기 맵핑정보를 이용하여 입력된 변위 신호에 대응하는 캐릭터를 생성하는 캐릭터 생성부, 상기 생성된 캐릭터를 이용하여 메시지를 생성하는 메시지 생성부를 포함한다.
상기 명령 판독부는 생성된 메시지를 저장하는 메시지 저장부를 포함한다.
상기 생성된 메시지를 음성 출력하는 음성 출력부를 더 포함한다.
상기 생성된 메시지를 디스플레이하는 표시부를 더 포함한다.
이를 위해 본 발명의 실시 예에 따른 로봇의 제어방법은, 로봇 핸드에 설치한 센서가 변위를 감지하고; 상기 센서에 대응되는 캐릭터를 생성하며; 상기 캐릭터를 차례로 모아 메시지를 생성하는 것;을 특징으로 한다.
상기 생성된 메시지를 음성 출력하는 것을 더 포함한다.
상기 생성된 메시지를 디스플레이하는 것을 더 포함한다.
상기 생성된 메시지를 저장하는 것을 더 포함한다.
상기 변위 신호가 상기 로봇 핸드의 기계적 변위를 감지하는 센서로부터 출력된다.
상기 변위 신호가 상기 로봇 핸드의 전기적 변위를 감지하는 센서로부터 출력된다.
이상과 같은 본 발명은 자판 기능을 갖춘 로봇 핸드를 이용하여 로봇에 명령을 입력할 수 있어 입력 작업이 간편하고 로봇과의 친근감을 높일 수 있다.
또한 본 발명은 로봇 핸드에 적용된 센서부를 이용하므로 로봇과 상호 작용하기 위한 별도 장치를 추가하지 않아도 되므로 제조 비용을 줄일 수 있다.
이하에서는 본 발명에 따른 실시 예를 첨부된 도면을 참조하여 상세히 설명한다.
도 1에 도시된 바와 같이, 로봇(10)은 로봇 몸체(100)와, 로봇 몸체(100)의 하부 양측에 연결되는 다리(200R, 200L)와, 로봇 몸체(100)의 상부 양측에 연결되는 팔(300R, 300L)과, 로봇 몸체(100)의 상단부에 연결되는 머리(400)를 구비한다. 참조 부호에서 "R", "L"은 각각 우측과 좌측을 나타낸다.
로봇 몸체(100)는 가슴부(100a)와 허리부(100b)로 분할되며, 가슴부(100a)와 허리부(100b) 사이에는 가슴부(100a)가 허리부(100b)에 대해 상대 회전할 수 있도록 관절이 설치될 수 있다.
양측 다리(200R, 200L)는 각각 대퇴 링크(210), 하퇴 링크(220) 및 발(230)을 구비한다.
로봇 몸체(100)의 상부는 머리(400)를 구비한다. 머리(400)는 로봇(10)의 주위를 촬영하는 촬영부(410)와, 소리를 감지하는 사운드 감지부(420)와, 음성 출력 하는 기능이 부여된 음성 출력부(430)를 포함한다.
양측의 팔(300R, 300L)은 상박 링크(310), 하박 링크(320), 및 로봇 핸드(500R, 500L)를 구비한다.
도 3a에 도시한 바와 같이, 로봇 핸드는 물체를 정확하고 안전하게 파지하기 위한 센서부(510)를 가진다.
센서부(510)는 자판 기능도 수행하며, 이러한 센서부를 구현하는 하나의 실시예로서 도 3a과 도 3b에서 설명할 인코더(631a)(631b)(631c)가 채용될 수 있다.
로봇 핸드(500R)는 핸드 몸체부(610)와 핸드 몸체부(610)에 결합된 복수의 손가락부(621)(622)(623)(624)(625)를 포함한다. 각 손가락부는 마디와 마디를 손가락 관절로 연결하여 그 관절에 의해 회전될 수 있다. 또한 손가락 관절에 손가락 마디의 회전 상태를 감지하기 위한 인코더(631a)(631b)(631c)가 설치된다. 예를 들어 인간 손의 검지에 해당하는 손가락부(622)의 관절마다 인코더(631a)(631b)(631c)가 각각 설치되며, 다른 손가락부에도 동일하게 설치된다.
본 실시예에서는 인코더(631a)(631b)(631c)를 포함한 양손에 마련된 전체 인코더에 문자, 숫자, 기호를 적어도 하나씩 대응시켜 인코더들이 자판 역할을 한다.
도 3b를 참고하면, 손가락부(622)의 끝에 가장 가까운 손가락 마디(622a)를 사용자가 누르면, 화살표 방향으로 손가락 마디(622a)가 움직인다. 이에 따라 이 손가락 마디(622a)가 연결된 관절에 설치된 인코더(631a)가 변위 신호를 출력한다.
그러면 후술할 캐릭터 생성부는 손가락 마디(622a)에 대응된 문자 등을 인식한다.
또한 본 발명의 실시예에 따른 로봇은 위 동작이 반복되면 각 동작에서 인식된 캐릭터를 모아 메시지를 생성한다. 여기서 손가락 마디에 해당 캐릭터의 표식을 인쇄하여 사용자의 메시지 입력을 도울 수 있도록 한다.
본 실시예에서는 기계적 변위를 감지하기 위한 센서부로 인코더를 이용하고 있지만, 이에 한정하는 것은 아니며, 관절에 설치하여 기계적 변위를 감지할 수 있는 자이로 센서 등을 채용할 수 있다.
한편, 자판 기능은 전기적 변위를 감지하는 터치 센서로 수행될 수도 있다.
도 4a에 도시한 바와 같이, 로봇 핸드(500L)는 핸드 몸체부(710)와 핸드 몸체부(710)에 결합된 복수의 손가락부(721)(722)(723)(724)(725)를 포함한다. 각 손가락부는 마디와 마디를 손가락 관절로 연결하여 그 관절에 의해 회전될 수 있다.
또한, 핸드 몸체부(710) 또는 손가락부(721)(722)(723)(724)(725)의 손가락 마디에 터치 센서가 설치된다. 터치 센서는 이외에도 로봇 핸드의 다른 부분 또는 로봇 내부 등 인간의 접근이 용이한 곳에 설치한다.
예를 들어 핸드 몸체부(710)에 터치센서(710a)가 설치되고, 인간 손의 소지에 해당하는 손가락부(725)의 손가락 마다 터치 센서(631a)(631b)(631c)가 각각 설치되며, 또한 다른 손가락부의 손가락 마디에도 터치센서가 동일하게 설치된다.
도 4b를 참고하면, 사용자가 손가락 마디(725a)(725b)(725c)의 터치센서(731a)(731b)(731c) 중 어느 하나를 터치하면, 해당 터치 센서가 전기적 변위에 반응하여 변위 신호를 출력한다. 그러면 후술할 캐릭터 생성부는 손가락 마디에 대응된 문자 등을 인식한다.
또한 본 발명의 실시예에 따른 로봇은 위 동작이 반복되면 각 동작에서 인식된 캐릭터를 모아 메시지를 생성한다. 여기서 손가락 마디에 해당 캐릭터의 표식을 인쇄하여 사용자의 메시지 입력을 도울 수 있도록 한다.
본 실시예서 전기적 변위를 감지하기 위한 센서부로 터치 센서를 이용하고 있지만, 이에 한정하는 것은 아니며, 전기적 변위를 감지하는 있는 스트레인게이지나 토크 센서를 채용할 수 있다.
도 5는 본 발명의 실시예에 따른 로봇의 제어 블록도이다.
본 발명에 따른 로봇은 전술한 센서부(510)와 센서부(510)로부터 입력되는 명령을 판독하여 메시지 형태로 출력하는 명령 판독부(520), 명령 판독부로부터 메시지를 받아 로봇 동작을 제어하는 로봇 제어부(530), 및 로봇 제어부의 제어에 따라 로봇에 설치된 각종 엑츄에이터를 구동하는 구동부(540)를 포함한다.
또한 본 발명에 따른 로봇은 사용자가 메시지 입력 상태를 음성 및 시각적으로 확인할 수 있는 음성 출력부(430)와 표시부(440)를 포함한다. 표시부(440)는, 도 7에 도시한 바와 같이 음성 출력부(430) 내부에 설치되어 생성된 메시지를 디스플레이한다.
명령 판독부(520)는 캐릭터 생성부(521), 메시지 생성부(522), 맵핑정보 저장부(523), 메시지 저장부(524)를 포함한다. 여기서 맵핑정보 저장부(523)는 각 센서의 변위 신호에 캐릭터를 대응시킨 맵핑 정보를 저장하며, 변위 신호는 기계적 변위(인코더 등) 또는 전기적 변위(터치센서 등)를 의미한다.
캐릭터 생성부(521)는 센서부(510)에서 입력되는 변위 신호와 맵핑정보 저장 부(523)에 저장된 맵핑 정보를 이용하여 캐릭터를 생성하고, 생성된 캐릭터를 메시지 생성부(522)에 제공한다.
메시지 생성부(522)는 캐릭터를 입력받아 메시지를 생성하는데, 캐릭터를 모아서 문장 단위로 메시지를 생성하는 메시지 판독 엔진을 이용하여 메시지를 생성한다. 메시지 생성부(522)는 메시지를 분석하여 메시지를 로봇 제어부(530)에 제공하거나 메시지 저장부(524)에 저장시킨다. 또한 메시지 생성부(522)는 메시지를 음성으로 출력하기 위한 음성 메시지 신호를 음성 출력부(430)에 제공한다. 음성 출력부(430)는 음성 메시지 신호에 따라 사용자에 의해 입력된 메시지를 확인할 수 있도록 음성 출력한다.
이하에서는 본 발명에 따른 로봇 제어방법을 설명한다.
본 실시예의 로봇은 로봇 핸드를 이용하여 명령에 대응하는 메시지를 입력하여 로봇에 부여된 기능을 처리할 수 있다.
도 6을 참고하면, 사용자가 로봇에 메시지를 입력하기 위해 큰 소리로 불러 로봇을 호출한다. 그러면 로봇(10)의 사운드 감지부(410)가 사운드 신호를 로봇 제어부(530)에 인가한다. 로봇 제어부(530)는 호출 명령에 응답하기 위하여 구동부(540)를 제어하고, 그러면 도 2와 같이 로봇(10)은 양측 로봇 핸드(500R, 500L)를 들어 올린다. 여기서 양측의 로봇 핸드(500R, 500L)의 손바닥이 보이게 펼친다. 그러면 사용자가 친근감을 가질 수 있다(910).
이어 사용자가 로봇 핸드에 설치되어 자판 역할을 하는 센서부를 이용하여 원하는 메시지를 입력하기 위하여 타이핑하고, 이에 따라 센서부는 변위 신호를 명 령 판독부(520)에 제공한다. 여기서 타이핑은 기계적 변위 또는 전기적 변위를 동반하는 동작을 의미한다(911).
캐릭터 생성부(521)가 맵핑 정보를 이용하여 변위 신호에 따라 캐릭터를 생성하고(812), 메시지 생성부(522)는 생성된 캐릭터에 따라 메시지를 생성한다(913).
이러한 메시지 생성과 함께 음성 출력부(430)에서 생성되는 메시지를 음성으로 출력함과 아울러 표시부(440)를 통해 메시지를 디스플레이하여 사용자가 용이하게 확인할 수 있게 한다(914).
그런 다음 생성된 메시지를 메시지 저장부(524)에 저장하고 로봇 제어부(530)에 전달한다(915).
도 1은 본 발명이 적용된 로봇을 나타낸 도면이다.
도 2는 도 1의 로봇을 이용하여 메시지 입력하는 동작을 설명하기 위한 도면이다.
도 3a는 본 발명의 실시예에 따른 로봇 핸드의 구성을 나타낸 도면이다.
도 3b는 도 3a의 로봇 핸드의 동작을 설명하기 위한 도면이다.
도 4a는 본 발명의 다른 실시예에 따른 로봇 핸드의 구성을 나타낸 도면이다.
도 4b는 도 4a의 로봇 핸드의 동작을 설명하기 위한 도면이다.
도 5는 본 발명의 실시예에 따른 로봇의 제어블록도이다.
도 6은 본 발명의 실시예에 따른 로봇 제어방법을 설명하기 위한 흐름도이다.
도 7은 본 발명의 실시예에 따른 로봇에 적용된 표시부를 설명하기 위한 도면이다.
*도면의 주요부분에 대한 부호 설명*
10 : 로봇
500R, 500L : 로봇 핸드
510 : 센서부
520 : 명령 판독부

Claims (20)

  1. 핸드 몸체부와; 상기 핸드 몸체부에 결합된 적어도 하나의 손가락부;를 포함하고, 상기 핸드 몸체부 또는 상기 손가락부가 자판 기능을 갖는 로봇 핸드.
  2. 제1항에 있어서,
    상기 로봇 핸드는 기계적 변위를 감지하는 센서부를 포함하는 로봇 핸드.
  3. 제2항에 있어서,
    상기 센서부는 상기 로봇 핸드의 관절 부위에 설치되는 인코더 또는 자이로 센서인 로봇 핸드.
  4. 제1항에 있어서,
    상기 로봇 핸드는 전기적 변위를 감지하는 센서부를 포함하는 로봇 핸드.
  5. 제4항에 있어서,
    상기 센서부는 상기 로봇 핸드의 표면에 설치되는 터치 센서와 스트레인게이지 및 토크센서 중 어느 하나인 로봇 핸드.
  6. 핸드 몸체부와; 상기 핸드 몸체부에 결합된 적어도 하나의 손가락부; 및 상기 핸드 몸체부 또는 상기 손가락부에 마련되어 자판 기능을 수행하는 센서부;를 갖는 로봇 핸드.
  7. 제6항에 있어서,
    상기 센서부는 기계적 변위를 감지하여 변위 신호를 출력하는 인코더 또는 자이로 센서를 구비하는 로봇 핸드.
  8. 제6항에 있어서,
    상기 센서부는 전기적 변위를 감지하여 변위 신호를 출력하는 터치 센서와 스트레인게이지 및 토크센서 중 어느 하나를 구비하는 로봇 핸드.
  9. 핸드 몸체부와 손가락부를 가지고, 상기 핸드 몸체부 또는 상기 손가락부가 자판 기능을 갖는 로봇 핸드; 및 상기 로봇 핸드에서 발생하는 변위 신호에 따라 메시지를 생성하는 명령 판독부;를 포함하는 로봇.
  10. 제9항에 있어서,
    상기 변위 신호는 상기 로봇 핸드의 기계적 변위 또는 전기적 변위에 의해 발생되는 로봇.
  11. 제9항에 있어서,
    상기 명령 판독부는
    상기 변위 신호에 캐릭터를 대응시킨 맵핑 정보를 저장하는 맵핑정보 저장부, 상기 맵핑정보를 이용하여 입력된 변위 신호에 대응하는 캐릭터를 생성하는 캐릭터 생성부, 상기 생성된 캐릭터를 이용하여 메시지를 생성하는 메시지 생성부를 포함하는 로봇.
  12. 제9항에 있어서,
    상기 명령 판독부는 생성된 메시지를 저장하는 메시지 저장부를 포함하는 로봇.
  13. 제9항에 있어서,
    상기 생성된 메시지를 음성 출력하는 음성 출력부를 더 포함하는 로봇.
  14. 제9항에 있어서,
    상기 생성된 메시지를 디스플레이하는 표시부를 더 포함하는 로봇.
  15. 로봇 핸드에 설치한 센서가 변위를 감지하고;
    상기 센서에 대응되는 캐릭터를 생성하며;
    상기 캐릭터를 차례로 모아 메시지를 생성하는 것;을 특징으로 하는 로봇의 제어 방법.
  16. 제15항에 있어서,
    상기 생성된 메시지를 음성 출력하는 것을 더 포함하는 로봇의 제어 방법.
  17. 제15항에 있어서,
    상기 생성된 메시지를 디스플레이하는 것을 더 포함하는 로봇의 제어 방법.
  18. 제15항에 있어서,
    상기 생성된 메시지를 저장하는 것을 더 포함하는 로봇의 제어 방법.
  19. 제15항에 있어서,
    상기 변위 신호가 상기 로봇 핸드의 기계적 변위를 감지하는 센서로부터 출력되는 것을 특징으로 하는 로봇의 제어방법.
  20. 제15항에 있어서,
    상기 변위 신호가 상기 로봇 핸드의 전기적 변위를 감지하는 센서로부터 출력되는 것을 특징으로 하는 로봇의 제어 방법.
KR1020080125000A 2008-12-10 2008-12-10 로봇 및 그 제어 방법 KR20100066621A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020080125000A KR20100066621A (ko) 2008-12-10 2008-12-10 로봇 및 그 제어 방법
US12/616,297 US8571713B2 (en) 2008-12-10 2009-11-11 Robot and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080125000A KR20100066621A (ko) 2008-12-10 2008-12-10 로봇 및 그 제어 방법

Publications (1)

Publication Number Publication Date
KR20100066621A true KR20100066621A (ko) 2010-06-18

Family

ID=42231986

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080125000A KR20100066621A (ko) 2008-12-10 2008-12-10 로봇 및 그 제어 방법

Country Status (2)

Country Link
US (1) US8571713B2 (ko)
KR (1) KR20100066621A (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2599532A2 (en) * 2009-07-30 2013-06-05 Carlos Alberto Ibañez Vignolo Self-playing biodegradable robot guitar having a leather-like casing, biodegradable musical pick, and structured protein/amino acids
US9199376B2 (en) * 2013-03-14 2015-12-01 GM Global Technology Operations LLC Intuitive grasp control of a multi-axis robotic gripper
WO2018076303A1 (zh) * 2016-10-28 2018-05-03 深圳蓝胖子机器人有限公司 机械手及机器人
DE102017104092B3 (de) * 2017-02-28 2018-05-09 Günther Battenberg Verfahren zur Überprüfung einer Funktion eines Fahrzeuges und/oder zumindest einer Bedieneinrichtung

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5796354A (en) * 1997-02-07 1998-08-18 Reality Quest Corp. Hand-attachable controller with direction sensing
US5984880A (en) * 1998-01-20 1999-11-16 Lander; Ralph H Tactile feedback controlled by various medium
US20020081112A1 (en) * 1999-01-18 2002-06-27 Olympus Optical Co., Ltd. Printer for use in a Photography Image Processing System
US6244644B1 (en) * 1999-01-25 2001-06-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Compact dexterous robotic hand
WO2004044664A1 (en) * 2002-11-06 2004-05-27 Julius Lin Virtual workstation
US7273324B2 (en) * 2003-12-15 2007-09-25 Cesar Mercier Adjustable wearable ergonomic split keyboard and mouse
JP2006026807A (ja) * 2004-07-16 2006-02-02 Harmonic Drive Syst Ind Co Ltd ロボットハンド等の関節機構
TW200632680A (en) * 2005-03-04 2006-09-16 Inventec Appliances Corp Electronic device of a phonetic electronic dictionary and its searching and speech playing method
US7296835B2 (en) * 2005-08-11 2007-11-20 Anybots, Inc. Robotic hand and arm apparatus
JP2008287377A (ja) * 2007-05-16 2008-11-27 Hitachi Ltd 入力装置及び情報処理システム

Also Published As

Publication number Publication date
US8571713B2 (en) 2013-10-29
US20100145518A1 (en) 2010-06-10

Similar Documents

Publication Publication Date Title
Zhou et al. RML glove—An exoskeleton glove mechanism with haptics feedback
Shorthose et al. Design of a 3D-printed soft robotic hand with integrated distributed tactile sensing
Li et al. Intuitive control of a robotic arm and hand system with pneumatic haptic feedback
KR102225783B1 (ko) 햅틱 컨트롤러 및 이를 이용한 햅틱 피드백 제공 시스템 및 방법
KR20100066621A (ko) 로봇 및 그 제어 방법
JP7049069B2 (ja) ロボットシステム及びロボットシステムの制御方法
JP2008203911A (ja) ポインティング・デバイス、およびコンピュータ
Zubrycki et al. Novel haptic glove-based interface using jamming principle
Gbouna et al. User-interactive robot skin with large-area scalability for safer and natural human-robot collaboration in future telehealthcare
JP4085163B2 (ja) 接触型情報入力装置
JP2008217260A (ja) 力覚提示装置
Evreinova et al. From kinesthetic sense to new interaction concepts: Feasibility and constraints
US20190196590A1 (en) Haptic tool system
JP2008217684A (ja) 情報入出力装置
KR20110060319A (ko) 커뮤니케이션이 가능한 로봇 및 이의 조작방법
KR102225769B1 (ko) 손가락 단위 단방향 움직임을 갖는 햅틱 컨트롤러의 가상 물체 파지 제어 시스템 및 방법
Wichiert et al. Man-machine interaction for robot applications in everyday environment
JP2007094930A (ja) 操作装置
Song et al. The development of interface device for human robot interaction
US20240286278A1 (en) Estimating device, estimating method, and estimating program
KR102429231B1 (ko) 웨어러블 장치를 이용한 식사 보조 방법 및 장치
JPH08150578A (ja) マスタアーム装置
TWI773308B (zh) 控制裝置、機器人系統、機器人的控制方法以及程式
KR20190001842A (ko) 다관절 햅틱 장치의 성능 평가 시스템 및 이를 이용한 성능 평가 방법
Won et al. Development of a wearable input device based on human hand-motions recognition

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
J201 Request for trial against refusal decision
B601 Maintenance of original decision after re-examination before a trial
J301 Trial decision

Free format text: TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20150618

Effective date: 20160211